登录/注册
L
个人中心
我的账号
我的订单
我的消息
VIP计划
注销登录
首页
编程教程
Java
Spring
Spring Cloud
Vert.x
Thymeleaf
JAVA UI
Python
Softwares
MySQL
Android
nginx
Wechat
WEB
JavaScript
CSS
Vue.js
Web Editor
SEO
Docker Case
Linux
Linux Security
Office
Jenkins
玩机教程
Router
Proxmox VE/PVE
Synology
飞牛私有云/FNOS
AI
Stable Diffusion
deepseek
资源分享
在线工具
JSON Formatter
HTML Formatter
CSS Formatter
Javascript Formatter
CPUMark
Base64在线编码/解码
URL在线编码/解码
首页
ollama镜像源
文章列表
ollama镜像源相关文章
Ollama 国内下载模型慢/修改模型源地址
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
ollama
ollama镜像源
deepseek
Ollama GPU 兼容情况
GPUNvidiaOllama 支持计算能力为 5.0 及以上的 Nvidia GPU。检查你的计算兼容性,以确认你的显卡是否受支持: https://deve
ollama
ollama gpu
ollama linux
Ollama 修改模型存储/存放路径/目录
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
ollama
ollama 模型存放路径
ollama 修改路径
deepseek
npm配置国内镜像源
环境说明下载的nodejs版本10.80安装nodejs后自带的npm版本为6.2.0npm环境说明 npm配置文件简介npm的配置文件为用户根目录下的:~/.
npm
国内源
npm源配置
Ollama调用AMD 780m集显详解(基于编译程序)
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来
deepseek
ollama
ollama 780m
ollama AMD
ollama集成显卡
Harbor 镜像使用
概述接前几篇harbor 2.10.x离线安装Harbor 镜像复制后,这里简述docker配合harbor私服镜像pull(拉取)和push(上传)操作示例。
harbor
docker 私服
harbor镜像使用
docker镜像使用
centos5/6/7修改国内阿里云的yum安装源
1.备份mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backu
Linux
yum
yum源
centos6源码安装MySQL5.6
centos6源码安装MySQL5.6
mysql源码安装
centos6.8切换yum源为国内阿里源
1.备份已有的源#mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.
centos
yum
yum 源
Ubuntu 20.04 更换国内apt源
Ubuntu 20.04 更换国内apt源第一步:备份源文件:sudo cp /etc/apt/sources.list /etc/apt/sources.list.backup第二步:编辑/e...
ubuntu20.04源更换
Ubuntu apt源更换
Ubuntu
Alpine Linux 配置国内软件源
Apine Linux 配置国内软件源echo "https://mirrors.tuna.tsinghua.edu.cn/alpine/v3.16/main" >l; /etc/apk/r...
Alpine Linux
Alpine Linux国内源
Alpine Linux软件源
PVE 7.x更换国内源
PVE 7.x更换国内源备份之前的cp /etc/apt/sources.list.d/pve-install-repo.list /root删除企业源rm /etc/apt/sources.l...
pve 国内源
pve 源更新
pve7更新软件
ollama 使用Nvidia显卡/GPU 跑deepseek r1安装配置
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
ollama
deepseek
cuda安装
Spring AI 基于Redis和Ollama实现RAG本地知识库
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
Ollama
Deepseek
Spring AI
Ubuntu Docker 镜像mirrors地址使用详解
背景Docker 对于新手开发者部署一些中间件或者开发环境比较友好,可惜官方image hub已被F...。内部使用必须依赖三方的镜像库,例如阿里云的https
Docker 镜像
Docker mirrors
Docker
下一页
热门文章
Spring Boot JSP 视图解析器教程
[JavaScript]
Spring Boot JMSTemplate 嵌入ActiveMQ使用教程
[Spring]
黑群晖7.0引导下载
[Synology]
Spring Boot SSL [https] 配置演示
[Spring]
为什么选择 MongoDB
[Java]
最近更新
Java 图片等比缩放
[Java]
Ubuntu/Linux crontab定时任务不执行分析解决
[Linux]
Nginx location路径匹配详解
[nginx]
Nginx 缓存静态资源到硬盘
[nginx]
Maven build构建项目前zip解压/加压某个文件
[Spring]
使用协议和Cookie告知:
🍪
使用协议和Cookie告知:
我们需要使用cookie来确保您在我们的网站上获得最佳体验。另外还您还需遵守本站相关协议。:
了解更多
我同意