Deepseek 本地部署可视化界面/客户端工具(Cherry Studio)使用

deepseek > AI (17) 2025-02-06 10:56:28

继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studio来让deepseek更易用。

Cherry Studio 是什么

Cherry Studio 支持多服务商集成的AI对话客户端。您的所有使用数据都储存在本地,不会上传到任何第三方服务器,并且支持本地部署的模型调用。

CherryStudio内置众多服务商。同时也支持其他兼容OpenAI/Anthropic等API格式的服务商接入。

简单而言就是个开源的AI客户端工具,且支持多平台

Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-87328dba46c045feacc97666985fef49.png
Window / MacOS / Linux

下载:Cherry Studio - 全能的AI助手

源码:https://github.com/CherryHQ/cherry-studio

 

Cherry Studio 安装

上面提供了下载地址,这里以window版为例,下载后双击安装即可。

Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-7eee61d77e084d22b6bfeb1a6b847f11.png
安装Cherry Studio
Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-44cd04ff7c72470088c67b29e71b71fc.png
Cherry Studio安装用户
Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-32591d15760443b0bee54b4da2758dfd.png
Cherry Studio安装目录配置
Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-bc42d5fecf5944d890728c68a8153936.png
Cherry Studio安装完成

 

Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-231c74ac31624f34ae3e776b8d898d16.png
默认界面

 

Cherry Studio 配置本地deepseek服务

Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-f3e4d082cecb477387dd492d4b738ddc.png
按图所示顺序点击到管理
Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-d6bec22573e14cb5b674dcf12013d584.png
检测本地安装的模型,点击“+”号添加,添加完成后关闭窗口
Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-dd2e88cacdb64a7785c609352f4b575a.png
模型添加完成后在上面开关按钮打开
Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-4f5acf46f8ce4f37bab86af9ab0b3305.png
切换到聊天并更换服务为本地的deepseek
Deepseek 本地部署后可视化界面(Cherry Studio)使用_图示-bd718806529b4f0a85ac544346c453f2.png
Cherry Studio工具下的deepseek 聊天

 

至此 Cherry Studio 工具 配合 离线部署deepseek 实现AI对话完成。

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
LM Studio官网打开连接 LM Studio - Discover, download, and run local LLMs(https://lmstu
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
LM Studio 以开发者视觉开启本地服务以开发者/高级用户角色打开开发者窗口Power User / Developer切换到开发者视图开发者视图打开loc
目标使用Redis Stack中间件作为向量数据库(Vector Database)实现文档数据的存储和查询功能。先决条件已安装好的 redis stack ,
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来