Stable Diffusion(SD)安装并运行780M显卡加速

AI > Stable Diffusion (215) 2025-03-24 12:14:54

安装HIP SDK

打开AMD HIP官网,下载6.1.2版本 Windows10/Windows11版本

AMD HIP SDK for Windows

Stable Diffusion(SD)安装并运行780M显卡加速_图示-64ec511a270f4742b774e47d477555ea.png

下载完成后文件名为:AMD-Software-PRO-Edition-24.Q3-Win10-Win11-For-HIP.exe,双击起来安装即可。

Stable Diffusion下载

Stable Diffusion 简称SD,这里以秋葉aaaki大佬集成包为例子

下载SD集成包

Stable Diffusion整合包v4.10发布!页面可以找到下载信息 

版本 780m 建议版本 v4.8(已通过测试)

  • 网盘:https://pan.quark.cn/s/2c832199b09b
  • 解压密码: v4.8  [bilibili@秋葉aaaki]   v4.9/4.10 [bilibili-秋葉aaaki]  中括号里面是密码

780m 核显版本匹配组件版本说明

  • Stable Diffusion整合包版本v4.8
  • HIP 版本 6.1.2/5.7.1

夸克加速秘法,安装客户端后:发送网盘文件,然后下载到本地,参考:

Stable Diffusion(SD)安装并运行780M显卡加速_图示-c837d1b9761d4ff895c141e92470feb6.png
发送网盘文件,然后下载到本地

 

下载HIP补丁包

补丁来源:适用于绘世启动器的 AMD Radeon 780M 补丁

https://pan.baidu.com/s/1kun1meOadjTJniETpO39AQ?pwd=sy59

补丁解压后可得两个文件:

780m_20240321_163205.7z (网盘文件)
  -- rocblas.dll
  -- tensile-gfx1103.j91v616eztqo.extpack

原理同前面deepseek的ollama补丁使用相似

Stable Diffusion 使用780M集显

首先解压前面下载的集成包,解压后可以找到 【A绘世启动器.exe】双击启动一次。启动完成后打开界面先不动。直接去【A绘世启动器.exe】文件相同目录找一个名为:.launcher目录,进入目录将补丁包两个文件复制到这里(会提示替换,替换即可)

替换完成后关闭刚才启动器打开的界面窗口,重新点击【A绘世启动器.exe】启动,然后点击下面的一键启动即可

 

注意:

  • 首次启动可能较慢,需要更新一些东西。
  • 首次生成图可能巨慢(20分中)因为需要转编译一些模块为AMD显卡使用。
  • 高级选项没有出现780m显卡名称也不要担心,用的时候观察显卡使用就行。
Stable Diffusion(SD)安装并运行780M显卡加速_图示-07af5968a34c41b08af9c1f1c2cb2f0e.png

 

Stable Diffusion 模型下载站

由于某些原因,国外站屏蔽了很多,这里备用一个能用的

  • https://hf-mirror.com/

提示词参考网站

  • https://www.liblib.art/

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
安装HIP SDK打开AMD HIP官网,下载6.1.2版本 Windows10/Windows11版本AMD HIP SDK for Windows下载完成后
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
Jenkins jdk8最后一个LTS长期支持版本   版本号: wget https://get.jenkins.io/war-stable/2.346.3/jenkins....
LinkedBlockingQueue 阻塞队列实现生产/消费模型package com.example.demospringbootqueueasynctask; import org....
一、下载安装包本次安装选择20.10.9Index of linux/static/stable/x86_64/二、安装上传下载后的压缩包到Linux系统/op
基于上一个项目Spring Boot 接入Ollama实现与Deepseek简单对话修改,增加嵌入库配置,修改模型拉取策略为alwaysapplication.
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型
LM Studio官网打开连接 LM Studio - Discover, download, and run local LLMs(https://lmstu
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
Java stream 筛选集合中的唯一对象出来演示数据模型@AllArgsConstructor @NoArgsConstructor @Data public class UserInfo ...
java stream 按月(日期Date)分组统计首先是上一个简单的数据模型@Data @NoArgsConstructor @AllArgsConstructor public class ...
网页布局是 CSS 的一个重点应用,之前都是盒子模型,flex布局是一种更优于盒子模型的先进方式,流行的开源前端框架bootstrap4之后也修改为了以flex布局为主。
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件