Toggle navigation sidebar
Toggle in-page Table of Contents
深入浅出PyTorch
目录
第零章:前置知识
人工智能简史
模型评价指标
常用包的学习
Jupyter notebook/Lab 简述
第一章:PyTorch的简介和安装
1.1 PyTorch简介
1.2 PyTorch的安装
1.3 PyTorch相关资源
第二章:PyTorch基础知识
2.1 张量
2.2 自动求导
2.3 并行计算简介
AI硬件加速设备
第三章:PyTorch的主要组成模块
3.1 思考:完成深度学习的必要部分
3.2 基本配置
3.3 数据读入
3.4 模型构建
3.5 模型初始化
3.6 损失函数
3.7 训练和评估
3.8 可视化
3.9 PyTorch优化器
第四章:PyTorch基础实战
4.1 ResNet
基础实战——FashionMNIST时装分类
第五章:PyTorch模型定义
5.1 PyTorch模型定义的方式
5.2 利用模型块快速搭建复杂网络
5.3 PyTorch修改模型
5.4 PyTorch模型保存与读取
第六章:PyTorch进阶训练技巧
6.1 自定义损失函数
6.2 动态调整学习率
6.3 模型微调-torchvision
6.3 模型微调 - timm
6.4 半精度训练
6.5 数据增强-imgaug
6.6 使用argparse进行调参
第七章:PyTorch可视化
7.1 可视化网络结构
7.2 CNN可视化
7.3 使用TensorBoard可视化训练过程
7.4 使用wandb可视化训练过程
第八章:PyTorch生态简介
8.1 本章简介
8.2 torchvision
8.3 PyTorchVideo简介
8.4 torchtext简介
8.5 torchaudio简介
第九章:PyTorch的模型部署
9.1 使用ONNX进行部署并推理
第十章:常见代码解读
10.1 图像分类简介(补充中)
目标检测简介
10.3 图像分割简介(补充中)
ResNet源码解读
文章结构
文章结构
Transformer 解读
ViT解读
Swin Transformer解读
repository
open issue
suggest edit
.md
.pdf
第十章:常见代码解读
第十章:常见代码解读
#
10.1 图像分类简介(补充中)
目标检测简介
目标检测概述
目标检测应用
目标检测数据集
目标检测常用算法
10.3 图像分割简介(补充中)
ResNet源码解读
1 基本介绍
2 源码解读
3 总结
文章结构
为什么需要 RNN?
RNN 理解及其简单实现
RNN 完成文本分类任务
RNN 存在的问题
文章结构
LSTM 理解
门
遗忘门
记忆门
状态更新
输出门
模型总结
LSTM 实战
实验说明
模型实现
超参数及参数说明
实验结果
关于梯度问题
Transformer 解读
前言
整体架构
Attention
Encoder
Decoder
残差连接
Mask
位置编码
最终建模
训练
总结
参考材料:
ViT解读
前言
ViT 的整体流程
切分和映射 Patch Embedding + Linear Projection
分类表征和位置信息 Class Token + Postional Embedding
Transformer Encoder
ViT 完整代码
Swin Transformer解读
前言
模型结构
Patch Embedding
Patch Merging
Window Partition/Reverse
Window Attention
Shifted Window Attention
W-MSA和MSA的复杂度对比
整体流程图