网络模型共含有19层,其中7层传统卷积层、8层深度可分离卷积层、4层最大池化层。同时,使用了 Adam优化器及对数损失函数。网络结构如图4所示,顺序从左至右、从上至下,并做以下说明:
Conv为传统卷积层,其后3个参数分别代表:卷积核个数、卷积核大小、步长。
activation表示该层对应的激活函数。
SeparableConv为深度可分离卷积层,其后2个参数分别代表:卷积核个数、卷积核大小,步长均为 1。
MaxPooing为最大池化层,其后2个参数分别代表:滤波器大小、步长。
ReLU为线性整流函数,作为卷积后的激活函数,相比sigmoid函数和tanh函数有着更好的效果。
softmax用于将最后一层卷积输出的七个数值映射到(0,1)区间,并使它们和为 1。 这样能更直观地以概率的形式显示结果。
在每一层卷积过后,都加入了批量归一化(Batch Normalization,BN)层,图中未标出。批量归一化对网络训练的各个方面都有一定的提升作用。它可以加快训练并提高性能、解决梯度消失的问题、规范权重、优化网络梯度流等,所以很有必要加入。
整个网络参数数量仅为75906个,其中可训
2023-03-02 21:47:08
1.02MB
卷积神经网络
1