Dify LLM大模型回复作为输出变量

AI (2) 2025-09-17 09:36:24

目标/需求

Dify LLM大模型回复作为输出变量示例,将大模型回复用于Stable Diffusion提示词。

提示词配置(输入)

Dify LLM大模型回复作为输出变量_图示-1ae4837b754845e9aaa073ddf24b589a.png

上一步提供大模型的输入用户提问内容。然后系统提示词参考:

请根据用户输入主题生成 Stable Diffusion 所需的图像描述,以 JSON 格式输出:

{
  "prompt": "主提示词(英文,包含主体、环境、风格、质量词)",
  "negative_prompt": "常见负面词,如:blurry, low quality, distorted face"
}

要求:
- prompt 要详细、具体、视觉化
- negative_prompt 固定包含:low quality, blurry, bad anatomy, distorted face
- 仅输出 JSON,不要额外内容

请严格按照要求执行

用户提示词:

用户输入内容:

{{#1758008666112.question#}}

{{#1758008666112.question#}}变量使用参考图

 

输出JSON化配置

Dify LLM大模型回复作为输出变量_图示-062db4491dee48c0aa3303f854bdb77d.png

在输出变量栏目

  1. 启用结构化输出
  2. 点击“配置”按钮配置结构化
Dify LLM大模型回复作为输出变量_图示-9fd865593f42450590016222e838f273.png

配置页面,填写提示词里面的json属性名,打开必填(建议)

 

Stable Diffusion 使用LLM提示词变量

Dify LLM大模型回复作为输出变量_图示-162e6ed60a744b38a6b37416da42b604.png
  1. prompt   SD提示词输入框里面输入  / 然后找LLM的变量 structured_output - > prompt
  2. Negative prompt   反向提示词也是如此

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
目标/需求Dify LLM大模型回复作为输出变量示例,将大模型回复用于Stable Diffusion提示词。提示词配置(输入)上一步提供大模型的输入用户提问内
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
Dify配置大模型,接上一篇安装Dify登录Dify 在右上方点击用户头像弹窗选设置安装模型供应商插件注意:这里的安装成功只是排队成功。下载安装需要时间
本文详细介绍了在Windows系统上本地化部署Dify的完整步骤,涵盖了Docker Desktop的安装与配置、Dify源代码的获取、环境变量的设置、服务的启
Dify Stable Diffusion(SD)插件安装登录Dify,然后找到顶部中间的“工具”点开后在搜索里面输入Dify Stable Diffusion
LM Studio官网打开连接 LM Studio - Discover, download, and run local LLMs(https://lmstu
概述/目的由于Dify 中再带的LM Studio插件,在工作流中报错,无法运行,暂时没有得到解决,故此使用openai 兼容工具提供商OpenAI-API-c
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
Postman 环境变量使用Postman环境变量配置添加一个dev的环境和添加一些dev的环境变量Postman环境变量使用 环境选择变量使用使用双大括号包裹变量名称postman环境变量查看...
定义变量Shell 支持以下三种定义变量的方式:variable=value variable='value' variable="value"variable 是变量名,value 是赋给...
了解python中的变量,声明局部变量和全局变量
Ollama 是一个用于运行和管理大型语言模型的工具,它支持通过环境变量来配置其行为。以下是一些常用的 Ollama 环境变量:1. OLLAMA_HOST作用
概述windows 系统配置环境变量的详细介绍,本教程理论兼容windows xp - windows 11(最新版)。本例以window 11 系统为例Win
Postman获取返回值数据并保存到环境变量中首先是普通请求一个接口返回数据示例接下来我们将学校名称也就是字段xxmc 赋值到postman变量xxmc中并打印出来首先编写请求完毕后的脚本接下来...
内置变量$args #请求中的参数值$query_string #同 $args$arg_NAME #GET请求中NAME的值$is_args #如果请求中有参