登录/注册
L
个人中心
我的账号
我的订单
我的消息
VIP计划
注销登录
首页
编程教程
Java
Spring
Spring Cloud
Vert.x
Thymeleaf
JAVA UI
Python
Softwares
MySQL
Android
nginx
Wechat
WEB
JavaScript
CSS
Vue.js
Web Editor
SEO
Docker Case
Linux
Linux Security
Office
Jenkins
玩机教程
Router
Proxmox VE/PVE
Synology
飞牛私有云/FNOS
AI
Stable Diffusion
deepseek
资源分享
在线工具
JSON Formatter
HTML Formatter
CSS Formatter
Javascript Formatter
CPUMark
Base64在线编码/解码
URL在线编码/解码
首页
deepseek r1
文章列表
deepseek r1相关文章
LM Studio 离线模型下载和导入
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
LM Studio
Deepseek
LM Studio 模型下载
Ollama 修改模型存储/存放路径/目录
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
ollama
ollama 模型存放路径
ollama 修改路径
deepseek
LM Studio 安装配置
LM Studio官网打开连接 LM Studio - Discover, download, and run local LLMs(https://lmstu
LM Studio
Deepseek
LLM
LM Studio 模型位置修改
Ollama调用AMD 780m集显详解(基于编译程序)
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来
deepseek
ollama
ollama 780m
ollama AMD
ollama集成显卡
LM Studio开启本地服务或headless(服务模式)
LM Studio 以开发者视觉开启本地服务以开发者/高级用户角色打开开发者窗口Power User / Developer切换到开发者视图开发者视图打开loc
LM Studio
deepseek
LM Studio本地服务
LM Studio服务化
上一页
热门文章
Spring Gateway 异常统一拦截返回JSON数据
[JavaScript]
SSO单点登录设计思路
[Java]
RestTemplate处理非200返回_RestTemplate处理错误返回
[Java]
java并发面试汇总
[Java]
Jenkins Publish over SSH 文件路径说明
[Jenkins]
最近更新
AI/Ps/Photoshop 字体大小点/PT 与网页字体PX像素大小转换
[JavaScript]
Windows 文件Hash计算工具
[Softwares]
Java graphics drawString x,y绘图位置偏差问题解决
[Java]
固态硬盘Total LBAs Written 换算写入量GB计算
[Softwares]
PVE 系统盘崩溃恢复示例
[Proxmox VE/PVE]
使用协议和Cookie告知:
🍪
使用协议和Cookie告知:
我们需要使用cookie来确保您在我们的网站上获得最佳体验。另外还您还需遵守本站相关协议。:
了解更多
我同意