Ollama调用AMD 780m集显详解(基于编译程序)

deepseek > AI (20) 2025-02-11 16:00:53

概述

Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来操作的。

必要软件下载

提示:本文是基于GitHub大佬开源库已编译程序+已编译依赖模块为例,所以这里不需要下载AMD的HIP SDK

所有需要下载HIP SDK的都是想要git clone 自己编译的

ollama-for-amd v0.5.4 下载,打开github页面,找到OllamaSetup.exe安装文件

image

目前(2025/2/11)最新编译可下载版本0.5.4.后续的好像编译失败中断了。

 

ROCmLibs库下载

打开ROCmLibs库下载地址:ROCmLibs

Ollama调用AMD 780m集显详解(基于编译程序)_图示-2d84c95592a44e918fa474631c28558e.png
下载图示所选版本

 

安装Ollama for AMD

ollama for AMD (OllamaSetup.exe) 安装和官方安装一样双击下一步到底就行。默认安装路径在 C:\Users\%username%\AppData\Local\Programs\Ollama

Ollama调用AMD 780m集显详解(基于编译程序)_图示-4238f0898e8448ee8d6f8764355fa57b.png
ollama 安装目录参考

 

替换ROCmLibs库

Github ROCmLibs 下载的包rocm.gfx1103.AMD.780M.phoenix.V4.0.for.hip.sdk.6.1.2.7z 解压,可以得到以下文件:

Ollama调用AMD 780m集显详解(基于编译程序)_图示-1df63701c36d48279fdc89b2473043b4.png

备份并替换ollama安装目录的上述文件和目录。

rocblas.dll替换

替换对应文件为:C:\Users\%username%\AppData\Local\Programs\Ollama\lib\ollama\rocblas.dll 备份为rocblas.dllbak 并将上面解压的rocblas.dll复制过来,处理完成后参考:

Ollama调用AMD 780m集显详解(基于编译程序)_图示-453888fe96e24c2188ec859257ec11fe.png

library替换

替换对应文件为:C:\Users\%username%\AppData\Local\Programs\Ollama\lib\ollama\rocblas\library 整个library目录备份(重命名)为librarybak 并将上面解压的library文件夹复制过来,处理完成后参考:

Ollama调用AMD 780m集显详解(基于编译程序)_图示-8d00263902694acc80e4f4a06798a0cc.png

 

重启ollama服务,再次测试并观察GPU占用情况

Ollama调用AMD 780m集显详解(基于编译程序)_图示-259cea9e47dd4ca8addc053305971764.png

可以看到GPU占用率一下子就起来了,同时CPU占用率低。以此实现了AMD 780m集成显卡对于ollama deepseek 模型的处理。

 

 

 


评论
User Image
提示:请评论与当前内容相关的回复,广告、推广或无关内容将被删除。

相关文章
概述Ollama官方最新版0.5.7,默认是不支持AMD 780m(代号:gfx1103)集成显卡的,已知方法都是基于一个开源项目ollama-for-amd来
问题ollama国内拉取模型慢,断点续传也蛮怎么办,当然是修改ollama镜像源 配置ollama模型国内镜像源
确认Ollama兼容您的GPUNvidiaOllama 支持计算能力 5.0 及以上的 Nvidia GPU。要检查您的显卡是否受支持,请查看您的计算兼容性:h
安装环境windows 11ollama工具下载ollama工具ollama官网 Download Ollama on Windows注:ollama同时支持L
Ollama 模型动辄xxGB,默认位置可能不满足需求,特别是Windows,默认的C盘,所以一般都需要调整下Ollama 模型存放位置。ollama 默认的模
Ollama 简介Ollama 是一个用于部署本地 AI 模型的工具,开发者可以在自己的机器上运行模型,并通过 API 接口调用。在本地搭建 Ollama 服务
GPUNvidiaOllama 支持计算能力为 5.0 及以上的 Nvidia GPU。检查你的计算兼容性,以确认你的显卡是否受支持: https://deve
概述本文讲解Java编程中如何通过Spring AI框架 集成 Redis Stack 向量数据库和Ollama模型服务提供者实现RAG本地外挂知识库。前置条件
一 了解什么是 RAGRAG(Retrieval Augmented Generation)检索增强生成,是 2023 年最火热的 LLM 应用系统架构,它的作
目标使用Redis Stack中间件作为向量数据库(Vector Database)实现文档数据的存储和查询功能。先决条件已安装好的 redis stack ,
LM Studio 开启本地服务LM Studio 开启服务化,参考:LM Studio开启本地服务或headless(服务模式)Anything LLM 配置
继上一篇deepseek Windows安装和入门使用 本地部署deepseek只能在cmd窗口使用,体验感不好。这里使用一个可视化工具Cherry Studi
在科技领域,新兴公司的涌现几乎每天都有,而每一家公司背后都有着独特的故事和潜力。最近,一家名为“深度求索”(DeepSeek)的中国公司引发了广泛关注。这家公司
LM Studio 离线模型下载和导入接上一篇LM Studio 安装配置后,使用大模型还得下载模型文件,由于内嵌模型库下载难用(网络原因)这里讲解离线下载后导
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?1.5B、7B、8B、14B、32B、70B是蒸馏后的小模型