deepseek Windows安装和入门使用

deepseek > AI (4) 2025-02-06 10:30:04

安装环境

  1. windows 11
  2. ollama工具
  3. 平台 AMD Ryzen 7 4800U with Radeon Graphics /16G

下载ollama工具

ollama官网 Download Ollama on Windows

注:

  • 下载ollama慢可复制下载连接到迅雷,因迅雷缓存了下载贼快。
  • ollama同时支持Linux和mac os系统。
deepseek Windows安装和入门使用_图示-517fd12723ff4b5b82ca5fef86753d56.png
ollama 下载完成后的样子

ollama安装

和Windows系统大多数软件安装步骤一致,双击然后下一步到最后即可。中间没有配置环节(目前版本没有:0.5.7.0)

deepseek Windows安装和入门使用_图示-eadad37de65b4a0ba7209e12d627634c.png
安装Ollama
deepseek Windows安装和入门使用_图示-09013ceeb3b14429865de2422a760000.png
安装Ollama
deepseek Windows安装和入门使用_图示-09885986596140418c21198953b098d7.png
任务栏查看
deepseek Windows安装和入门使用_图示-6516d38d866046d5a817ab31a97301ee.png
查看ollama版本

安装成功后通过cmd执行命令

ollama --version

查看安装版本信息,安装成功会有版本信息输出,参考上面图所示。

ollama模型默认存放于c盘,建议修改ollama默认模型存储路径,修改方法参考:Ollama 修改模型存储/存放路径/目录

使用ollama安装和运行deepseek r1模型

打开ollama官网Ollama,搜索地方输入deepseek r1

deepseek Windows安装和入门使用_图示-499635cfbbcb45af8846bd0e869d9736.png
搜索deepseek r1 模型
deepseek Windows安装和入门使用_图示-df448df2ebf04263a421ce22a2b0eae1.png
选择对应的版本,这里选择的8b

选择好版本后,在后面有运行命令,如这里的

ollama run deepseek-r1:8b

显存多少 GB 就部署大概多少 b 的模型,比如 24GB 部署 32b,16GB 部署 14b,8GB 部署 7b。如果出现 OOM,也就是爆显存了,就部署小一档的模型。

显存超过 40GB,可以考虑 部署 70b 的模型,否则建议使用 32b 的模型。

Windows 上执行命令,打开cmd窗口,然后粘贴上面的命令回车即可。

deepseek Windows安装和入门使用_图示-f3c8c01d33d24e17b720182e7b71e649.png
deepseek Windows安装和入门使用_图示-9a72d5223f2e4548a3f0761542c73469.png
下载安装

下载估计需要一定的时间

下载完成后,即可输入内容测试,参考:写一份《关于2024年春节放假安排的通知》,需注明值班表报送截止日期。

deepseek Windows安装和入门使用_图示-d18f711dd9014877be342dabc38490b4.png
think内容。
deepseek Windows安装和入门使用_图示-9546aa9174b64a78b5d93d6977701e46.png
具体编写内容

 

至此一个简的deepseek r1 离线部署模型成功。

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
Ollama 环境准备Ollama安装使用参考:Deepseek Windows安装和入门使用Spring Boot项目接入OllamaSpring Boot
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
下载harbor离线版打开GitHub上的harbor仓库地址https://github.com/goharbor/harbor/下载最新稳定离线版本上传harbor到服务器服务器创建目录/o...
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来
基于上一个项目Spring Boot 接入Ollama实现与Deepseek简单对话修改,增加嵌入库配置,修改模型拉取策略为alwaysapplication.