LM Studio 安装配置

deepseek > AI (18) 2025-02-14 13:03:18

LM Studio 简介

LM Studio 是一个本地大型语言模型(LLM)的应用平台,它旨在使用户能够在自己的计算机上轻松地运行、管理和部署各种大型语言模型。

LM Studio官网

打开连接  LM Studio - Discover, download, and run local LLMs(https://lmstudio.ai/) 可以访问到LM Studio官网

LM Studio 安装配置_图示-3399c8d5fe9b480fa74df6762c2a71dc.png
LM Studio 官网

 

LM Studio下载

打开LM Studio官网以后首页首屏幕就有下载选择,支持 苹果/Windows/Linux系统平台。此处以Windows系统为例。

点击下载即可(目前版本0.3.9)

LM Studio 安装配置_图示-eb3ad381b9c645b4873fddb5271d1f5b.png
下载完成

提示:工具有450多Mb,直接下载慢可以复制连接使用迅雷下载,迅雷有缓存飞快。

 

LM Studio安装

安装前,先D盘(视情况而定)创建两个目录

D:\LM_Studio\app
D:\LM_Studio\models

目录说明:一个用于安装LM Studio程序,一个用来存放大模型文件

注意:模型文件/目录路径 使用字母+数字+下划线组成,不要用中文和其他特殊字符,否则有意想不到得错误哟。

双击刚才下载好的程序文件,开始安装

LM Studio 安装配置_图示-95fbca269d3b4b468f4f9088aa2f0c0f.png
安装用户:选择所有用户,然后下一步
LM Studio 安装配置_图示-86b92da4b3c74f629c5355cb5e888d12.png
默认安装目录,可自定义
LM Studio 安装配置_图示-1471e599fd1b4bcb933b1c1ad62403f0.png
自定义安装目录:选择了D:/LM_Studio/app
LM Studio 安装配置_图示-142665dcf5394591a4e74fe1cedfe99c.png
安装中
LM Studio 安装配置_图示-dd55a229312747c3baad1e5e4f0c58bb.png
安装完成
LM Studio 安装配置_图示-b6c57fa3c44340f7a6a52a252713d548.png

 

LM Studio设置中文

点击左下角次轮设置:

LM Studio 安装配置_图示-76163cd91bfb4abfb3af2e60640a6758.png
设置
LM Studio 安装配置_图示-3b466d55d7bc4b3aa5809e3ef24f95b9.png
语言下拉找到简体中文。

 

LM Studio 安装配置_图示-86acc0ee2fe546028f27677dff0e6e8f.png
over

提示:这里设置好以后大多数界面已经翻译中文了,部分还是英语,正常得。

 

LM Studio 修改默认模型存放位置

LM Studio默认模型存放位置为:c:\users\用户名\.lmstudio\models

打开模型目录设置

LM Studio 安装配置_图示-02ab9ad23bf4429b801a699dbe52f197.png
点击我的模型
LM Studio 安装配置_图示-58b60c52bcd3404a9a8a94baf2956d2f.png
点击模型目录后面得三个点按钮:更改新目录
LM Studio 安装配置_图示-b41aac073f1f4740ac3d6d2efd5ac04f.png
这里设置为之前我们创建的 D:\LM_Studio\models 目录

LM Studio模型下载和使用

LM Studio程序提供了内嵌下载渠道但是奈何网络问题,访问不到,修改程序文件后同样慢这里就不详解了,后续文章讲解实用的LM Studio模型离线下载和导入方案。内嵌的下载模型界面参考下面:

LM Studio 安装配置_图示-a4fdffdf782c4a3793146eac04aad25a.png
LM Studio内嵌模型搜索下载

 

至此LM Studio工具基础安装配置完成。

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
LM Studio官网打开连接 LM Studio - Discover, download, and run local LLMs(https://lmstu
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
LM Studio 以开发者视觉开启本地服务以开发者/高级用户角色打开开发者窗口Power User / Developer切换到开发者视图开发者视图打开loc
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
目标使用Redis Stack中间件作为向量数据库(Vector Database)实现文档数据的存储和查询功能。先决条件已安装好的 redis stack ,
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h