Ollama windows系统开放局域网访问

deepseek > AI (39) 2025-02-07 11:14:57

Ollama 简介

Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务后,默认只允许本地访问,而局域网中的其他设备无法直接访问该服务。安装参考:deepseek Windows安装和入门使用 前部分

设置ollama 监听地址不限制

默认情况下,ollama只监听 localhost 也就说,默认只允许通过localhost访问接口。Windows 系统可以通过添加系统环境变量配置来修改。对应的环境变量名为:OLLAMA_HOST 值设置为 0.0.0.0 表示监听所有来源

Windows系统环境变量设置方式参考:Windows 系统如何配置环境变量

设置完成后记得重启下ollama服务

 

Windows 防火墙 开放ollama 端口访问

方法一:使用 Windows 防火墙图形界面

  1. 打开 控制面板,搜索并选择 Windows Defender 防火墙。
  2. 在左侧点击 高级设置,进入高级防火墙设置页面。
  3. 在左侧菜单中,点击 入站规则,然后在右侧点击 新建规则。
  4. 选择 端口 作为规则类型,然后点击 下一步。
  5. 选择 TCP,并在 特定本地端口 一栏中输入 11434,然后点击 下一步。
  6. 选择 允许连接,点击 下一步。
  7. 根据需求选择应用的网络类型(域、专用或公用),点击 下一步。
  8. 为这条规则命名(如 “Allow Ollama Port 11434”),然后点击 完成。
     

方法二:使用命令行快速开放端口

如果你更习惯使用命令行,可以通过以下步骤快速开放端口。

打开 命令提示符(以管理员身份运行),使用以下命令为 Ollama 服务开放 11434 端口(TCP 协议):

netsh advfirewall firewall add rule name="Allow Port 11434" dir=in action=allow protocol=TCP localport=11434

如果 Ollama 使用的是 UDP 协议,可以将命令中的 TCP 改为 UDP:

netsh advfirewall firewall add rule name="Allow Port 11434" dir=in action=allow protocol=UDP localport=11434

你可以通过以下命令确认规则是否正确添加:

netsh advfirewall firewall show rule name="Allow Port 11434"

 

测试 Ollama 服务是否在局域网中可访问

完成上述设置后,Ollama 服务应该可以通过局域网中的其他设备访问。你可以通过局域网中的另一台设备,在浏览器中输入以下地址进行测试:

http://<你的本机局域网IP地址>:11434

提示:cmd执行 ipconfig 命令可以查看本地局域网ip

例如,如果你的本机 IP 地址是 192.168.1.100,则在局域网中其他设备的浏览器中输入:

http://192.168.1.100:11434

如果服务成功启动,页面应显示 Ollama API 的相关信息,表明你的服务已经能够在局域网中正常访问。

Ollama windows系统开放局域网访问_图示-aeb0b63801bb4a108d087293571ab446.png
ollama 检查

 

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
Ollama 环境准备Ollama安装使用参考:Deepseek Windows安装和入门使用Spring Boot项目接入OllamaSpring Boot
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
rabbitmq windows 安装/windows安装rabbitmq1.获取RabbitMQ windows版本的安装文件首先我们需要去获取RabbitM
概述windows 系统配置环境变量的详细介绍,本教程理论兼容windows xp - windows 11(最新版)。本例以window 11 系统为例Win
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
Windows 11 Pro 安装篇首先是安装,与window 10 一致,我这边用vm安装的暂时不提供安装界面了
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
windows 7 系统设置系统时间与互联网同步后,点击立即更新,出现下面错误提示:​Windows在与time.windows.com同步时出错解决办法:一. 在windows服务里面设置时间...
为啥需要正版Windows在日常实用电脑办公的兔子们一般用的操作系统都是Windows,少量macos,macos相当于是买硬件送了。但是Windows 系统对于组装机是单独售卖的。
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来