登录/注册
L
个人中心
我的账号
我的订单
我的消息
VIP计划
注销登录
首页
编程教程
Java
Spring
Spring Cloud
Vert.x
Thymeleaf
JAVA UI
Python
Softwares
MySQL
Android
nginx
Wechat
WEB
JavaScript
CSS
Vue.js
Web Editor
SEO
Docker Case
Linux
Linux Security
Office
Jenkins
玩机教程
Router
Proxmox VE/PVE
Synology
飞牛私有云/FNOS
AI
Stable Diffusion
deepseek
资源分享
在线工具
JSON Formatter
HTML Formatter
CSS Formatter
Javascript Formatter
CPUMark
Base64在线编码/解码
URL在线编码/解码
首页
deepseek自建知识库
文章列表
deepseek自建知识库相关文章
基于AnythingLLM Ollama Deepseek构建本地知识库入门
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
deepseek本地知识库
deepseek自建知识库
Ollama
AnythingLLM
DeepSeek(深度求索)是什么
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
deepseek
AI
deepseek 8b
deepseek Windows安装和入门使用
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
deepseek
deepseek r1
ollama
deepseek离线安装
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
deepspeek
deepseek r1
deepseek模型区别
MQTT Java入门-搭建MQTT服务器
MQTT协议 Java入门教程,通过Apache ActiveMQ Artemis搭建MQTT服务器。首先下载Apache ActiveMQ Artemis,目前Apache ActiveMQ ...
MQTT
MQTT协议
MQTT服务器搭建
Spring data-mongodb ID自增长注解实现
Spring data-mongodb ID自增长注解实现,mongodb ID自增长
mongodb ID自增长
Deepseek 本地部署可视化界面/客户端工具(Cherry Studio)使用
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
Cherry Studio
deepseek
AI
ollama 使用Nvidia显卡/GPU 跑deepseek r1安装配置
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
ollama
deepseek
cuda安装
Spring AI 基于Redis和Ollama实现RAG本地知识库
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
Ollama
Deepseek
Spring AI
Fail2Ban 自定义日志监禁
需求fail2ban 根据某个程序的日志文件进行监视,发现对应问题后进行监禁IP。具体需求示例:监控nginx示例,1分钟发现10个404页面访问则封禁该IP1
fail2ban自定义过滤器
fail2ban自定义监禁
fail2ban自定义服务
Ollama windows系统开放局域网访问
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
ollama
deepseek
windows
windows 防火墙
Ollama 国内下载模型慢/修改模型源地址
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
ollama
ollama镜像源
deepseek
Anything LLM 接入LM Studio
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
Anything LLM
LM Studio
deepseek
Spring Boot 接入Ollama实现与Deepseek简单对话
Ollama 环境准备Ollama安装使用参考:Deepseek Windows安装和入门使用Spring Boot项目接入OllamaSpring Boot
spring boot ai
ollama
deepseek
npm通过verdaccio搭建私服镜像库
npm通过verdaccio搭建私服镜像库,以此提高本地多人协同install速度。verdaccio安装方式选为docker方式。docker相关知识可以查看
npm私服
npm verdaccio
verdaccio搭建
npm
下一页
热门文章
视频基础知识/4K视频解释
[飞牛私有云/FNOS]
飞牛NAS 开启OVS虚拟网桥重启失联解决
[飞牛私有云/FNOS]
Java 图片坐标系
[编程教程]
PVE 查看网口/网卡速率
[Proxmox VE/PVE]
PVE 安装配置Fail2ban
[Proxmox VE/PVE]
最近更新
Java graphics drawString x,y绘图位置偏差问题解决
[Java]
固态硬盘Total LBAs Written 换算写入量GB计算
[Softwares]
PVE 系统盘崩溃恢复示例
[Proxmox VE/PVE]
VMware 安装PVE/Proxmox
[Proxmox VE/PVE]
PVE 创建RAID0/1/5/10通过ZFS
[Proxmox VE/PVE]
使用协议和Cookie告知:
🍪
使用协议和Cookie告知:
我们需要使用cookie来确保您在我们的网站上获得最佳体验。另外还您还需遵守本站相关协议。:
了解更多
我同意