01-Deploy
🚀 ROCm 大模型部署实践简介
本模块提供在 AMD GPU 上部署大语言模型的完整教程。无论你是初学者还是有经验的开发者,都可以通过本教程快速掌握在 ROCm 平台上部署和运行大模型的方法。
自 ROCm 7.10.0 起,ROCm 已支持像 CUDA 一样在 Python 虚拟环境中无缝安装,这大大降低了 AMD GPU 大模型部署的门槛。
本模块默认以 Google Gemma 4(gemma-4-E4B-it 为主)作为示例模型,同时提供 Qwen3 的平行教程供参考。目录结构如下:
01-Deploy/
└── models/
├── Gemma4/ # 以 Gemma 4 为主的部署教程(主推荐)
└── Qwen3/ # Qwen3 系列部署教程(参考对比)教程列表
Ubuntu 24.04 + ROCm 7 环境准备教程
本教程将手把手带你在 Ubuntu 24.04 上完成 ROCm 7.1.0 的安装与验证,包括卸载旧 ROCm 环境、运行官方脚本安装 ROCm、以及使用 rocminfo / rocm-smi / amd-smi 等工具确认 GPU 与驱动状态。建议在开始任何部署教程之前先完成本篇。
- 适合人群:首次在 AMD GPU 上搭建 ROCm 环境的用户
- 难度等级:⭐⭐
- 预计时间:1 小时
📖 开始学习环境准备教程(Gemma4)
📎 参考:Qwen3 版本
Gemma 4 模型介绍
在开始部署前,推荐先阅读 Gemma 4 模型介绍,了解 Gemma 4 E2B / E4B / 31B / 26B A4B 四个版本的架构特点、能力差异与硬件选择建议,便于按自身环境挑选合适的模型。
- 适合人群:第一次使用 Gemma 4 的用户
- 难度等级:⭐
- 预计时间:15 分钟
LM Studio 零基础大模型部署
LM Studio 是一款用户友好的桌面应用,支持在本地运行大语言模型。本教程以 Gemma 4 E4B-it Q4_K_M 为例,指导你如何在 AMD GPU 上使用 LM Studio + ROCm 版 llama.cpp 后端部署和运行大模型。
- 适合人群:零基础用户、希望快速体验大模型的用户
- 难度等级:⭐
- 预计时间:30 分钟
📖 开始学习 LM Studio 部署教程(Gemma4)
📎 参考:Qwen3 版本
vLLM 零基础大模型部署
vLLM 是一个高性能的大模型推理和服务框架,支持高效的 PagedAttention 和连续批处理。本教程以 Gemma 4 E4B-it 为例,分别介绍基于官方 ROCm vLLM Docker 镜像的快速启动方式,以及从源码手动编译 Triton / FlashAttention / vLLM 的进阶方式。
- 适合人群:需要搭建推理服务的开发者
- 难度等级:⭐⭐
- 预计时间:1 小时
📖 开始学习 vLLM 部署教程(Gemma4)
📎 参考:Qwen3 版本
Ollama 零基础大模型部署
Ollama 是一个快速服务大语言模型和视觉语言模型的框架,具有高效的后端运行时。本教程以 Gemma 4 E4B-it Q4_K_M 为例,指导你如何在 AMD GPU 上使用 Ollama(ROCm 版 llama.cpp 后端)部署大模型,并给出 tokens/s 测速示例。
- 适合人群:希望一条命令拉起本地推理服务的开发者
- 难度等级:⭐⭐
- 预计时间:1 小时
📖 开始学习 Ollama 部署教程(Gemma4)
📎 参考:Qwen3 版本
llama.cpp 零基础大模型部署
llama.cpp 是一个轻量且高性能的推理后端,支持 GGUF 等多种模型格式,并已提供针对 ROCm 的优化版本。本教程以 Gemma 4 E4B-it Q4_K_M(GGUF) 为例,介绍如何在 Ubuntu 24.04 + ROCm 7+ 环境下使用预编译二进制与 Docker 两种方式部署主流模型。
- 适合人群:希望用命令行 / REST API 自由编排推理流程的开发者
- 难度等级:⭐⭐⭐
- 预计时间:1.5 小时
📖 开始学习 llama.cpp 部署教程(Gemma4)
📎 参考:Qwen3 版本
环境要求
硬件要求
- AMD GPU(支持 ROCm 的显卡,如 RX 7000 / 9000 系列、Ryzen AI MAX / AI 300、Instinct MI 系列等)
- 建议显存 8GB 以上(Gemma 4 E4B Q4_K_M 量化版本可在 8GB 显存下运行;如需原生 bfloat16 推理或更大模型,请参考对应教程的显存建议)
软件要求
- 操作系统:Linux (Ubuntu 22.04+) 或 Windows 11
- ROCm 7.10.0 或更高版本
- Python 3.10+
常见问题
Q: 如何确认我的 AMD GPU 是否支持 ROCm?
请参考 ROCm 官方支持列表 查看支持的 GPU 型号。
Q: 部署时遇到 "HIP error" 怎么办?
- 确认 ROCm 已正确安装
- 检查环境变量是否正确设置
- 尝试重启系统后再次运行
Q: 下载 Gemma 4 时提示无权限?
Gemma 系列模型需要先在 Hugging Face 对应模型页(例如 google/gemma-4-E4B-it)点击 Agree & Access,然后使用具备 read 权限的 Hugging Face Token 登录或通过 HF_TOKEN 注入容器 / 进程。