Ollama 是一个用于运行和管理大型语言模型的工具,它支持通过环境变量来配置其行为。以下是一些常用的 Ollama 环境变量:
OLLAMA_HOST
127.0.0.1:11434
示例:
export OLLAMA_HOST="0.0.0.0:11434"
设置为 0.0.0.0
可以让服务接受来自外部网络的请求,常用于 Docker 或远程访问场景。
OLLAMA_ORIGIN
http://localhost:11434
示例:
export OLLAMA_ORIGIN="http://localhost:3000,https://yourapp.com"
当你从前端应用(如 React、Vue)调用 Ollama API 时,可能需要配置此变量以避免 CORS 错误。
OLLAMA_MODELS
~/.ollama/models
,macOS: ~/Library/Application Support/Ollama/models
)示例:
export OLLAMA_MODELS="/mnt/data/ollama/models"
适用于需要将模型存储在特定磁盘或共享存储中的情况。
OLLAMA_NUM_PARALLEL
示例:
bash
export OLLAMA_NUM_PARALLEL=4
可用于限制或提升并发处理能力。
OLLAMA_MAX_LOADED_MODELS
示例:
export OLLAMA_MAX_LOADED_MODELS=3
在多模型切换频繁的场景下,适当增加可减少加载延迟。
OLLAMA_KEEP_ALIVE
5m
(5分钟)示例:
export OLLAMA_KEEP_ALIVE="30m"
值为 0
表示永远不卸载,-1
表示立即卸载。
OLLAMA_GPU_MEMORY
示例:
export OLLAMA_GPU_MEMORY="8GiB"
OLLAMA_FLASH_ATTENTION
1
启用,0
禁用示例:
export OLLAMA_FLASH_ATTENTION=1
OLLAMA_NO_RANDOMIZE
1
禁用随机化示例:
export OLLAMA_NO_RANDOMIZE=1
OLLAMA_DEBUG
1
开启调试模式示例:
export OLLAMA_DEBUG=1
# 启动 Ollama 并允许远程访问
export OLLAMA_HOST="0.0.0.0:11434"
export OLLAMA_ORIGIN="*"
export OLLAMA_DEBUG=1
ollama serve
⚠️ 注意:部分环境变量可能随 Ollama 版本更新而变化,请参考官方文档或 GitHub 仓库获取最新信息。
官方文档参考:https://github.com/ollama/ollama
系统设置->搜索 系统环境变量
然后添加环境变量
注意:系统环境变量是下面的框,见上图所示
cmd窗口设置,只对当前cmd窗口生效,
set 变量名=变量值
示例:
set OLLAMA_HOST=0.0.0.0:11434
所有环境(Windows/Linux/mac)配置变量后需重启ollama服务(临时方案除外)。
https://blog.xqlee.com/article/2509111637012402.html