登录/注册
L
个人中心
我的账号
我的订单
我的消息
VIP计划
注销登录
首页
编程教程
Java
Spring
Spring Cloud
Vert.x
Thymeleaf
JAVA UI
Python
Softwares
MySQL
Android
nginx
Wechat
WEB
JavaScript
CSS
Vue.js
Web Editor
SEO
Docker Case
Linux
Linux Security
Office
Jenkins
玩机教程
Router
Proxmox VE/PVE
Synology
飞牛私有云/FNOS
AI
Stable Diffusion
deepseek
资源分享
在线工具
JSON Formatter
HTML Formatter
CSS Formatter
Javascript Formatter
CPUMark
Base64在线编码/解码
URL在线编码/解码
首页
AI
文章列表
AI 相关文章
Stable Diffusion(SD)安装并运行780M显卡加速
安装HIP SDK打开AMD HIP官网,下载6.1.2版本 Windows10/Windows11版本AMD HIP SDK for Windows下载完成后
Stable Diffusion
SD
Stable Diffusion模型
Spring AI 基于Redis和Ollama实现RAG本地知识库
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
Ollama
Deepseek
Spring AI
Spring Boot AI使用Redis Vector Database作为向量数据库
目标使用Redis Stack中间件作为向量数据库(Vector Database)实现文档数据的存储和查询功能。先决条件已安装好的 redis stack ,
Redis Stack
Redis Vector
Spring AI
Anything LLM 接入LM Studio
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
Anything LLM
LM Studio
deepseek
LM Studio开启本地服务或headless(服务模式)
LM Studio 以开发者视觉开启本地服务以开发者/高级用户角色打开开发者窗口Power User / Developer切换到开发者视图开发者视图打开loc
LM Studio
deepseek
LM Studio本地服务
LM Studio服务化
LM Studio 离线模型下载和导入
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
LM Studio
Deepseek
LM Studio 模型下载
LM Studio 安装配置
LM Studio官网打开连接 LM Studio - Discover, download, and run local LLMs(https://lmstu
LM Studio
Deepseek
LLM
LM Studio 模型位置修改
Ollama 国内下载模型慢/修改模型源地址
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
ollama
ollama镜像源
deepseek
Ollama调用AMD 780m集显详解(基于编译程序)
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来
deepseek
ollama
ollama 780m
ollama AMD
ollama集成显卡
基于AnythingLLM Ollama Deepseek构建本地知识库入门
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
deepseek本地知识库
deepseek自建知识库
Ollama
AnythingLLM
Ollama windows系统开放局域网访问
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
ollama
deepseek
windows
windows 防火墙
Ollama GPU 兼容情况
GPUNvidiaOllama 支持计算能力为 5.0 及以上的 Nvidia GPU。检查你的计算兼容性,以确认你的显卡是否受支持: https://deve
ollama
ollama gpu
ollama linux
ollama 使用Nvidia显卡/GPU 跑deepseek r1安装配置
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
ollama
deepseek
cuda安装
Deepseek 本地部署可视化界面/客户端工具(Cherry Studio)使用
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
Cherry Studio
deepseek
AI
DeepSeek(深度求索)是什么
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
deepseek
AI
deepseek 8b
下一页
热门文章
No spring.config.import property has been defined
[Spring]
nacos2.2.x windows快速部署
[编程教程]
微软输入法高级功能(win10以上自带输入法)
[Softwares]
Java根据浏览器UA(USER-AGENT)判断是移动平台还是电脑
[编程教程]
【已解决】nginx https代理到http其他主机导致浏览器报错多次重定向
[编程教程]
最近更新
Ubuntu/Linux crontab定时任务不执行分析解决
[Linux]
Nginx location路径匹配详解
[nginx]
Nginx 缓存静态资源到硬盘
[nginx]
Maven build构建项目前zip解压/加压某个文件
[Spring]
微信小程序社交/论坛类目审核避坑指南
[Wechat]
使用协议和Cookie告知:
🍪
使用协议和Cookie告知:
我们需要使用cookie来确保您在我们的网站上获得最佳体验。另外还您还需遵守本站相关协议。:
了解更多
我同意