Skip to content

01-Deploy

🚀 ROCm 大模型部署实践

零基础快速上手 AMD GPU 大模型部署

返回主页 · English

简介

  本模块提供在 AMD GPU 上部署大语言模型的完整教程。无论你是初学者还是有经验的开发者,都可以通过本教程快速掌握在 ROCm 平台上部署和运行大模型的方法。

  自 ROCm 7.10.0 起,ROCm 已支持像 CUDA 一样在 Python 虚拟环境中无缝安装,这大大降低了 AMD GPU 大模型部署的门槛。

  本模块默认以 Google Gemma 4gemma-4-E4B-it 为主)作为示例模型,同时提供 Qwen3 的平行教程供参考。目录结构如下:

01-Deploy/
└── models/
    ├── Gemma4/           # 以 Gemma 4 为主的部署教程(主推荐)
    └── Qwen3/            # Qwen3 系列部署教程(参考对比)

教程列表

Ubuntu 24.04 + ROCm 7 环境准备教程

  本教程将手把手带你在 Ubuntu 24.04 上完成 ROCm 7.1.0 的安装与验证,包括卸载旧 ROCm 环境、运行官方脚本安装 ROCm、以及使用 rocminfo / rocm-smi / amd-smi 等工具确认 GPU 与驱动状态。建议在开始任何部署教程之前先完成本篇。

  • 适合人群:首次在 AMD GPU 上搭建 ROCm 环境的用户
  • 难度等级:⭐⭐
  • 预计时间:1 小时

📖 开始学习环境准备教程(Gemma4)
📎 参考:Qwen3 版本


Gemma 4 模型介绍

  在开始部署前,推荐先阅读 Gemma 4 模型介绍,了解 Gemma 4 E2B / E4B / 31B / 26B A4B 四个版本的架构特点、能力差异与硬件选择建议,便于按自身环境挑选合适的模型。

  • 适合人群:第一次使用 Gemma 4 的用户
  • 难度等级:⭐
  • 预计时间:15 分钟

📖 阅读 Gemma 4 模型介绍


LM Studio 零基础大模型部署

  LM Studio 是一款用户友好的桌面应用,支持在本地运行大语言模型。本教程以 Gemma 4 E4B-it Q4_K_M 为例,指导你如何在 AMD GPU 上使用 LM Studio + ROCm 版 llama.cpp 后端部署和运行大模型。

  • 适合人群:零基础用户、希望快速体验大模型的用户
  • 难度等级:⭐
  • 预计时间:30 分钟

📖 开始学习 LM Studio 部署教程(Gemma4)
📎 参考:Qwen3 版本


vLLM 零基础大模型部署

  vLLM 是一个高性能的大模型推理和服务框架,支持高效的 PagedAttention 和连续批处理。本教程以 Gemma 4 E4B-it 为例,分别介绍基于官方 ROCm vLLM Docker 镜像的快速启动方式,以及从源码手动编译 Triton / FlashAttention / vLLM 的进阶方式。

  • 适合人群:需要搭建推理服务的开发者
  • 难度等级:⭐⭐
  • 预计时间:1 小时

📖 开始学习 vLLM 部署教程(Gemma4)
📎 参考:Qwen3 版本


Ollama 零基础大模型部署

  Ollama 是一个快速服务大语言模型和视觉语言模型的框架,具有高效的后端运行时。本教程以 Gemma 4 E4B-it Q4_K_M 为例,指导你如何在 AMD GPU 上使用 Ollama(ROCm 版 llama.cpp 后端)部署大模型,并给出 tokens/s 测速示例。

  • 适合人群:希望一条命令拉起本地推理服务的开发者
  • 难度等级:⭐⭐
  • 预计时间:1 小时

📖 开始学习 Ollama 部署教程(Gemma4)
📎 参考:Qwen3 版本


llama.cpp 零基础大模型部署

  llama.cpp 是一个轻量且高性能的推理后端,支持 GGUF 等多种模型格式,并已提供针对 ROCm 的优化版本。本教程以 Gemma 4 E4B-it Q4_K_M(GGUF) 为例,介绍如何在 Ubuntu 24.04 + ROCm 7+ 环境下使用预编译二进制与 Docker 两种方式部署主流模型。

  • 适合人群:希望用命令行 / REST API 自由编排推理流程的开发者
  • 难度等级:⭐⭐⭐
  • 预计时间:1.5 小时

📖 开始学习 llama.cpp 部署教程(Gemma4)
📎 参考:Qwen3 版本


环境要求

硬件要求

  • AMD GPU(支持 ROCm 的显卡,如 RX 7000 / 9000 系列、Ryzen AI MAX / AI 300、Instinct MI 系列等)
  • 建议显存 8GB 以上(Gemma 4 E4B Q4_K_M 量化版本可在 8GB 显存下运行;如需原生 bfloat16 推理或更大模型,请参考对应教程的显存建议)

软件要求

  • 操作系统:Linux (Ubuntu 22.04+) 或 Windows 11
  • ROCm 7.10.0 或更高版本
  • Python 3.10+

常见问题

Q: 如何确认我的 AMD GPU 是否支持 ROCm?

请参考 ROCm 官方支持列表 查看支持的 GPU 型号。

Q: 部署时遇到 "HIP error" 怎么办?
  1. 确认 ROCm 已正确安装
  2. 检查环境变量是否正确设置
  3. 尝试重启系统后再次运行
Q: 下载 Gemma 4 时提示无权限?

Gemma 系列模型需要先在 Hugging Face 对应模型页(例如 google/gemma-4-E4B-it)点击 Agree & Access,然后使用具备 read 权限的 Hugging Face Token 登录或通过 HF_TOKEN 注入容器 / 进程。

参考资源


欢迎贡献更多部署教程! 🎉

提交 Issue | 提交 PR