Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务后,默认只允许本地访问,而局域网中的其他设备无法直接访问该服务。安装参考:deepseek Windows安装和入门使用 前部分
默认情况下,ollama只监听 localhost
也就说,默认只允许通过localhost访问接口。Windows 系统可以通过添加系统环境变量配置来修改。对应的环境变量名为:OLLAMA_HOST
值设置为 0.0.0.0
表示监听所有来源
Windows系统环境变量设置方式参考:Windows 系统如何配置环境变量
设置完成后记得重启下ollama服务
如果你更习惯使用命令行,可以通过以下步骤快速开放端口。
打开 命令提示符(以管理员身份运行),使用以下命令为 Ollama 服务开放 11434 端口(TCP 协议):
netsh advfirewall firewall add rule name="Allow Port 11434" dir=in action=allow protocol=TCP localport=11434
如果 Ollama 使用的是 UDP 协议,可以将命令中的 TCP 改为 UDP:
netsh advfirewall firewall add rule name="Allow Port 11434" dir=in action=allow protocol=UDP localport=11434
你可以通过以下命令确认规则是否正确添加:
netsh advfirewall firewall show rule name="Allow Port 11434"
完成上述设置后,Ollama 服务应该可以通过局域网中的其他设备访问。你可以通过局域网中的另一台设备,在浏览器中输入以下地址进行测试:
http://<你的本机局域网IP地址>:11434
提示:cmd执行 ipconfig 命令可以查看本地局域网ip
例如,如果你的本机 IP 地址是 192.168.1.100
,则在局域网中其他设备的浏览器中输入:
http://192.168.1.100:11434
如果服务成功启动,页面应显示 Ollama API 的相关信息,表明你的服务已经能够在局域网中正常访问。
https://blog.xqlee.com/article/2502071012033837.html