Skip to content

hello-rocm面向 AMD GPU 的 ROCm 教程与实践案例

从环境安装、模型部署、模型微调到算子优化,系统整理 AMD ROCm 在大模型场景下的学习路径。

hello-rocm

hello-rocm Skill

把本项目一键交给你的 AI 助手

复制下面这句话,粘贴给支持 Skill / Rules / Agent 配置的工具,让它自动判断如何加载 src/hello-rocm-skill

适合询问 GPU 架构、ROCm 快速安装、vLLM / Ollama / llama.cpp 部署、常见报错排查与学习路径。

推荐学习路径

  1. 先阅读 基础环境,完成 ROCm、PyTorch 与 Python 工具链配置。
  2. 再进入 大模型部署,从 LM Studio 或 vLLM 等推理部署流程开始验证环境。
  3. 环境稳定后继续阅读 大模型微调,了解 ROCm 上的 LoRA 微调流程。
  4. 如果希望深入底层性能与扩展能力,可以继续学习 算子优化
  5. 需要完整项目样例时,查看 AMD 实践案例

内容目录

模块内容
基础环境ROCm 基础环境安装、配置、校验与 GPU 架构对照
大模型部署Qwen3、Gemma4 等模型的多框架本地部署
大模型微调ROCm 环境下的大模型微调记录
算子优化AMD AI 硬件、ROCm 软件栈、HIP 算子与 PyTorch 自定义算子
参考资料ROCm 与 AMD AI 生态相关资料
AMD 实践案例面向 AMD 平台的应用案例与社区项目

适合读者

  • 手头有 AMD GPU,希望在本地运行或微调大模型的学习者。
  • 想要系统了解 ROCm 工作流,但缺少完整路径的开发者。
  • 希望从推理部署进一步深入到算子开发和性能分析的实践者。