Ollama 国内下载模型慢/修改模型源地址

deepseek > AI (75) 2025-02-11 16:07:21

问题

ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源

 

配置ollama模型国内镜像源

国内可用镜像源参考:

镜像提供商 镜像地址 特性
阿里云 https://registry.ollama.ai 企业级CDN加速
DeepSeek官方镜像 https://ollama.deepseek.com 原生支持代码模型
浙江大学镜像站 https://ollama.zju.edu.cn 学术网络优化
魔搭社区 https://ollama.modelscope.cn 中文模型生态整合

 

Linux/macOS 配置

mkdir -p ~/.ollama
cat << EOF > ~/.ollama/config.json
{
    "registry": {
        "mirrors": {
            "registry.ollama.ai": "https://registry.ollama.ai"
        }
    }
}
EOF

 

Windows 配置

  1. 在资源管理器地址栏输入 %USERPROFILE%\.ollama

  2. 新建config.json文件,内容:

{
   "registry": {
       "mirrors": {
           "registry.ollama.ai": "https://registry.ollama.ai"
       }
   }
}

 

修改配置后可选择重启ollama服务再次拉取。

 

DeepSeek模型部署:硬件适配方案

量化精度 显存需求 内存需求 适用场景 示例硬件配置
FP32 24GB+ 32GB+ 科研级代码生成 RTX 3090 + DDR4 64GB
FP16 12GB 24GB 专业开发工作站 RTX 4080 + DDR5 32GB
INT8 8GB 16GB 主流游戏本 RTX 3060 + DDR4 16GB
INT4 6GB 8GB 轻薄本开发 Apple M2 Pro 16GB

部署命令示例:

# 部署INT4量化版本
ollama run deepseek-coder:6.7b-instruct-q4_K_M

# 使用NVidia GPU加速
CUDA_VISIBLE_DEVICES=0 ollama run deepseek-coder:33b-instruct-fp16

 

 

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
GPUNvidiaOllama 支持计算能力为 5.0 及以上的 Nvidia GPU。检查你的计算兼容性,以确认你的显卡是否受支持: https://deve
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
目标使用Redis Stack中间件作为向量数据库(Vector Database)实现文档数据的存储和查询功能。先决条件已安装好的 redis stack ,
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导