Dify 配置大模型

AI (3) 2025-09-17 10:42:28

Dify配置大模型,接上一篇Windows 安装Dify

登录Dify 在右上方点击用户头像

Dify 配置大模型_图示-464e67515ce04649aa1869331cfb6699.png

弹窗选设置

安装模型供应商插件

Dify 配置大模型_图示-20187e646d284908a825ef1f6195fb4d.png
Dify 配置大模型_图示-66bb3b41ddbd45259a12d9c74ec81456.png

注意:这里如果很快弹窗安装成功只是排队成功。下载安装需要时间

 

配置大模型提供商

Dify 配置大模型_图示-89b04a062e564515a328fb6cfc2685eb.png

 

添加/配置模型

以场景的本地部署 ollama和LM Studio为例

ollama

Dify 配置大模型_图示-2e23a93e4aff45fa9372640472e0a5bf.png

模型名称:

通过ollama list 查看已经pull的大模型,把列表中的NAME配置过来,例如 deepseek-r1:8b

模型类型:

模型类型一般分为LLM 聊天模型,Text Embedding 嵌入模型,Rerank 检索模型

例如 :

  • deepseek-r1:8b 是LLM聊天模型
  • mxbai-embed-large:latest 是嵌入模型

 

凭据名称:

非必填,不管

基础URL:

也就是ollama接口地址

例如:http://192.168.31.181:11434

注意:如果是Windows + docker 部署的dify,请不要使用localhost,找不到的哈,使用Windows主机的局域网ip。

 

上下文长度:

默认即可

 

以上信息配置完成后点击添加即可。

 

查看配置的模型

Dify 配置大模型_图示-83cb08a95a484dcd82c85c98e7877d1d.png

LM Studio 默认搞个gpt-3.5不知道哪里来的,删不掉。

重要提示:

经测试,LM Studio 插件在工作流使用中出现问题,目前无法解决,提代方案使用OpenAI-API-compatible 插件提代(走openai协议),参考Dify OpenAI-API-compatible 使用LM Studio-XQLEE'Blog

系统模型设置

Dify 配置大模型_图示-0e73b0c8726f40fd9fad07081af6dc2e.png

 

 

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
Dify配置大模型,接上一篇安装Dify登录Dify 在右上方点击用户头像弹窗选设置安装模型供应商插件注意:这里的安装成功只是排队成功。下载安装需要时间
Dify Stable Diffusion(SD)插件安装登录Dify,然后找到顶部中间的“工具”点开后在搜索里面输入Dify Stable Diffusion
概述/目的由于Dify 中再带的LM Studio插件,在工作流中报错,无法运行,暂时没有得到解决,故此使用openai 兼容工具提供商OpenAI-API-c
目标/需求Dify LLM大模型回复作为输出变量示例,将大模型回复用于Stable Diffusion提示词。提示词配置(输入)上一步提供大模型的输入用户提问内
本文详细介绍了在Windows系统上本地化部署Dify的完整步骤,涵盖了Docker Desktop的安装与配置、Dify源代码的获取、环境变量的设置、服务的启
LM Studio官网打开连接 LM Studio - Discover, download, and run local LLMs(https://lmstu
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
Ollama 是一个用于运行和管理大型语言模型的工具,它支持通过环境变量来配置其行为。以下是一些常用的 Ollama 环境变量:1. OLLAMA_HOST作用
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
LM Studio 以开发者视觉开启本地服务以开发者/高级用户角色打开开发者窗口Power User / Developer切换到开发者视图开发者视图打开loc
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
基于上一个项目Spring Boot 接入Ollama实现与Deepseek简单对话修改,增加嵌入库配置,修改模型拉取策略为alwaysapplication.
由于某些原因,数据库某个表某个字段可能会很大。大了就会引发一个问题,默认的数据库单子段大小是有限制的。版本不同限制的默认值不同。拿我的MySQL 5.6 来说安装后默认的配置是单子段4MB大小
服务Server默认配置server.conf################################################## Sample