Batch Normalization2023年4月2日 · 阅读需 7 分钟前言 Batch Normalization (BN)层,通过将数据批量归一化(使其分布在 N(0,1)),有下列好处: 缓解了梯度传递问题,使模型适应更大的学习率,加速了训练; 改善了饱和非线性模型不易训练的问题; 还起到了正则化的作用。 可以看出,BN 和之前学到的 Xavier 初始化权重的目的类似,都是使训练更容易。 实现