作者&编辑:李中梁引言
上文提过不要在神经网络中使用dropout层,用BN层可以获得更好的模型。经典论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》提出了Batch Normalization 批标准化的概念, towardsdatascience上一文《Intuit and Implement: Batch Normalization》详细解释了BN的原理,并通过在Cifar 100上的实验证明了其有效性。全文编译如下。
神经网络在训练过程中的问题
2021-10-28 17:02:25
369KB
al
ali
c
1