LM Studio开启本地服务或headless(服务模式)

deepseek > AI (30) 2025-02-18 10:27:28

LM Studio 以开发者视觉开启本地服务

以开发者/高级用户角色打开开发者窗口

LM Studio开启本地服务或headless/服务模式_图示-0dacedd5513e40699c8f86adc9fd38af.png
Power User  / Developer

切换到开发者视图

LM Studio开启本地服务或headless/服务模式_图示-826ffed033ea4db0893eb651e26c49a7.png
开发者视图

打开local server

LM Studio开启本地服务或headless/服务模式_图示-a8b1421303714e888e8051ff133bb4c2.png
启动Server
LM Studio开启本地服务或headless/服务模式_图示-69db6e97a9ee445fa80c9282ad0816f0.png
配置server 

加载模型

LM Studio开启本地服务或headless/服务模式_图示-bda1fd0d621046908109f98a1b99f423.png
加载模型
LM Studio开启本地服务或headless/服务模式_图示-edf062eacb9246e9a716e537a48a25ea.png
模型可用状态

此时可以通过ip+端口访问API进行开发或调用了。此外还有LM Studio 还有个服务模式,就是本身以服务方式启动

 

LM Studio headless(服务模式)

点击左下角设置次轮打开设置页面

LM Studio开启本地服务或headless/服务模式_图示-fc471790eac048aca492dd664f53716d.png

弹窗页面选择右下角的App Settings ,然后左边滚动到 Local LLM Service(Headless) 菜单,勾选 Enable Local LLM Service 启用本地服务。打开该配置后,关闭窗口时候不关闭程序而是挂载到后台。

LM Studio开启本地服务或headless/服务模式_图示-9dc63d16b40e4b2386c545e7cf3d8a01.png
开启headless后关闭窗口可以在任务栏看到LM Studio的图标

 

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
LM Studio 以开发者视觉开启本地服务以开发者/高级用户角色打开开发者窗口Power User / Developer切换到开发者视图开发者视图打开loc
LM Studio官网打开连接 LM Studio - Discover, download, and run local LLMs(https://lmstu
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h