动手学习深度学习(13)现代卷积神经网络(2)
训练深层神经网络是十分困难的,特别是在较短的时间内使他们收敛更加棘手。 在本节中,我们将介绍批量规范化(batch normalization),这是一种流行且有效的技术,可持续加速深层网络的收敛速度。
批量归一化
固定小批量里面的均值和方差,批量归一化是线性变换
MATHJAX-SSR-6
均值 和方差 为学习参数。
作用在
- 全连接层和卷积层输出上,激活函数前
- 全连接层和卷积层输入上
全连接层,作用在特征维;卷积层,作用在通道维。
可以加速收敛速度(通过匀速更大的学习率),但一般不改变模型精度。
从零实现
1 |
|
创建一个正确的BatchNorm
图层
1 |
|
应用BatchNorm
于LeNet模型
1 |
|
在Fashion-MNIST数据集上的效果
1 |
|
简洁实现
1 |
|
ResNet残差网络
通过视频可以更直观的理解残差网络的作用和改进之处。
残差块的实现
1 |
|
查看输入和输出形状一致的情况
1 |
|
我们也可以在增加输出通道数的同时,减半输出的高和宽。
1 |
|
ResNet模型
1 |
|
在训练ResNet之前,让我们观察一下ResNet中不同模块的输入形状是如何变化的。 在之前所有架构中,分辨率降低,通道数量增加,直到全局平均汇聚层聚集所有特征。
1 |
|
训练模型
1 |
|
- Title: 动手学习深度学习(13)现代卷积神经网络(2)
- Author: 茴香豆
- Created at : 2022-11-01 09:35:42
- Updated at : 2022-11-04 15:25:29
- Link: https://hxiangdou.github.io/2022/11/01/DL_13/
- License: This work is licensed under CC BY-NC-SA 4.0.
Comments