LM Studio 离线模型下载和导入

deepseek > AI (161) 2025-02-14 15:05:10

LM Studio 离线模型下载和导入

接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导入LM Studio

LM Studio 支持GGUF模型文件格式 ,在以下社区可以找到模型文件下载

魔搭社区模型下载

打开魔搭社区首页,点击模型库

LM Studio 离线模型下载和导入_图示-d49ae3d0067249bcbb223152b831d1c9.png
搜索deepseek 为例,找到GGUF格式的点进去就好

也可以回车搜索更多版本

LM Studio 离线模型下载和导入_图示-86bfc004fb0f4b4aa152141a22683abf.png
选一个GGUF的点进去

选择模型文件

LM Studio 离线模型下载和导入_图示-8e84ad7508f24e90a98a5b1c774684f6.png
这里以Q4版为例,点击后面的下载

 

敲黑板了!!

直接浏览器下载可能慢,复制下载连接,迅雷下载速度快很多

 

迅雷加速下载模型

LM Studio 离线模型下载和导入_图示-7f617e73feef46debf4222411820dd0d.png
复制模型文件下载连接
LM Studio 离线模型下载和导入_图示-a7905c4f8d03494fbad0d6a01194aa73.png
迅雷新建下载任务
LM Studio 离线模型下载和导入_图示-d347356362e74fb5a845e2cc4e24e122.png
下载飞快

 

LM Studio模型文件存放

LM Studio 安装篇中,我们修改了模型的默认存放地址为:D:\LM_Studio\models

下载好的模型文件存放需要保证一定格式才能被LM Studio识别

假设 %MODELS% = 模型存放路径
 %MODELS%/author_name/namespace/模型文件

参考:

image
存放参考

打开LM Studio 我的模型,可以看到刚才下载的模型已经在这里显示

LM Studio 离线模型下载和导入_图示-73937c7eb3694a7291e7ef5a8e1b80e5.png

 

模型使用

LM Studio 离线模型下载和导入_图示-b77a4e71da854f2c862b90b83649254f.png
切换到聊天,然后选择模型
LM Studio 离线模型下载和导入_图示-592434356fa2482c90b3b8bf360c9fa5.png
选择刚才下载的模型
LM Studio 离线模型下载和导入_图示-5134d02f1fc04f5a8f4b6bf97590f19d.png
参数修改一个快速注意力或者不修改直接加载模型

提示:参数部分的GPU卸载(加速翻译错误)拉到最大可以减少CPU使用率和提高回答效率

纯显卡加速

一般多少B的模型就需要多少显存,否则加载错误哟。

LM Studio 离线模型下载和导入_图示-53ac8dc395fc400c955beaf93b87f303.png
加载中..顶部有进度条

 

加载完成后即可对话使用

LM Studio 离线模型下载和导入_图示-fcfab2b383794fc2a39c9b39d9e5a304.png
使用

 

 

over

 

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
LM Studio官网打开连接 LM Studio - Discover, download, and run local LLMs(https://lmstu
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
LM Studio 以开发者视觉开启本地服务以开发者/高级用户角色打开开发者窗口Power User / Developer切换到开发者视图开发者视图打开loc
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
i219-v 刷i219-lm 解决Linux下i219-v无法驱动问题。最近购入了一个联想的1L小主机M710Q,准备安装pve,却发现无法驱动有线网卡,故有
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
Ollama 环境准备Ollama安装使用参考:Deepseek Windows安装和入门使用Spring Boot项目接入OllamaSpring Boot
基于上一个项目Spring Boot 接入Ollama实现与Deepseek简单对话修改,增加嵌入库配置,修改模型拉取策略为alwaysapplication.
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务