Ollama 修改模型存储/存放路径/目录

deepseek > AI (34) 2025-02-05 12:42:36

Ollama 模型默认位置

Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模型保存路径如下:

  • Windows : C:\Users\%username%\.ollama\models
  • MacOS : ~/.ollama/models
  • Linux : /usr/share/ollama/.ollama/models

Ollama Windows系统修改模型存储路径

通过设置环境变量,添加 OLLAMA_MODELS 环境变量,例如D:\ollama\models,设置完成后重启 ollama 或 PowerShell,即可完成模型位置的迁移,再次加载或拉取模型文件时生效,如下图所示:

WIN+I打开系统设置

Ollama 修改模型存储/存放路径/目录_图示-7888102b13774ea4b83c5a503a7d62da.png
搜索环境,并打开编辑系统环境变量
Ollama 修改模型存储/存放路径/目录_图示-8f49e12f1a1045669d3eee7da84cba3f.png
按照图所示序号依次操作即可

完成后通过新开一个cmd窗口执行下面命令查看是否生效:

echo %OLLAMA_MODELS%
Ollama 修改模型存储/存放路径/目录_图示-89879d80939c42b2afd3687035d174f6.png
生效会输出对应配置的目录信息

重启ollama

Ollama 修改模型存储/存放路径/目录_图示-caf12ccc53694fffb945c8ea61d5eb6e.png
任务栏退出
Ollama 修改模型存储/存放路径/目录_图示-ac6d0e5b6b8f4e26ae3f7bc3a7f80521.png
菜单搜索点击启动
Ollama 修改模型存储/存放路径/目录_图示-58731cfaefc04def9292122451945832.png
下载模型可以看到已经存放于设定路径下

 

Ollama Linux系统修改模型存储路径

如果 Ollama 以 systemd 服务的形式运行,则应使用 systemctl 设置环境变量:

  1. 通过调用 systemctl edit ollama.service 编辑 systemd 服务。这将打开一个编辑器。
  2. 对于每个环境变量,在 [Service] 部分下添加一行 Environment:

    [Service]
    Environment="OLLAMA_MODELS=/home/<username>/ollama_models"
  3. 退出编辑器并保存文本
  4. 重新启动 ollama 服务

    systemctl daemon-reload
    systemctl restart ollama

 

 

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
GPUNvidiaOllama 支持计算能力为 5.0 及以上的 Nvidia GPU。检查你的计算兼容性,以确认你的显卡是否受支持: https://deve
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
目标使用Redis Stack中间件作为向量数据库(Vector Database)实现文档数据的存储和查询功能。先决条件已安装好的 redis stack ,
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
LM Studio官网打开连接 LM Studio - Discover, download, and run local LLMs(https://lmstu