Convolution+BatchNorm+Scale+Relu的组合模块在卷积后进行归一化,可以加速训练收敛。但在推理时BatchNorm非常耗时,可以将训练时学习到的BatchNorm+Scale的线性变换参数融合到卷积层,替换原来的Convolution层中weights和bias,实现在不影响准确度的前提下加速预测时间。
2019-12-21 19:37:04 9KB caffe加速 移除dropout 融合BN层
1