门控循环单元(GRU)是一种改进型的长短期记忆模型(LSTM)结构,有效改善了LSTM训练耗时的缺点。在GRU的基础上,对激活函数sigmoid,tanh,ReLU等性能进行了比较和研究,详细分析了几类激活函数的优缺点,提出了一种新的激活函数双曲正切线性单元(TLU)。实验证明:新的激活函数既能显著地加快深度神经网络的训练速度,又有效降低训练误差。
2021-12-04 21:59:08 379KB 激活函数 ReLU
1
MNIST手写字识别 ReLU激活函数 规则化 识别率最高可达到97.5
2021-05-25 16:48:28 16.51MB MNIST ReLU激活函数 规则化
1