AlexNet 论文总结一、论文翻译摘要(一)引言(二)数据集(三)架构1. ReLU非线性2. 多GPU训练3. 局部响应归一化(LRN)4. 重叠池化5. 整体架构(四)减少过拟合1. 数据增强2. Dropout(五)学习细节(六)结果1. 定性评估(七)探讨二、论文笔记(一)网络架构梳理1. 卷积层 1(conv1)2. 卷积层 2(conv2)3. 卷积层 3(conv3)4. 卷积层 4(conv4)5. 卷积层 5(conv5)6. 全连接层 1(fc1)7. 全连接层 2(fc2)8. 全连接层 3(fc3)(二)局部响应归一化(LRN)1. 为什么要引入LRN层?2. LRN
2022-11-23 18:19:27 704KB alexnet网络结构 ex imagenet
1
AlexNet 特征 8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连接输出层。 将sigmoid激活函数改成了更加简单的ReLU激活函数。 用Dropout来控制全连接层的模型复杂度。 引入数据增强,如翻转、裁剪和颜色变化,从而进一步扩大数据集来缓解过拟合 第一个卷积层 输入的图片大小为:2242243(或者是2272273) 第一个卷积层为:111196即尺寸为1111,有96个卷积核,步长为4,卷积层后跟ReLU,因此输出的尺寸为 224/4=56,去掉边缘为55,因此其输出的每个feature map 为 555596,同时后面跟LRN层,尺寸不变. 最大池化层,核大小为33
2022-03-02 16:54:30 291KB “人造太阳”计划 alexnet网络结构 ex
1
首先贴出三个链接: 1. AlexNet网络结构详解视频 2. 使用pytorch搭建AlexNet并针对花分类数据集进行训练 3. 使用tensorflow搭建AlexNet并针对花分类数据集进行训练 AlexNet是2012年ILSVRC 2012(ImageNet Large Scale Visual Recognition Challenge)竞赛的冠军网络,分类准确率由传统方法的 70%+提升到 80%+(当时传统方法已经进入瓶颈期,所以这么大的提升是非常厉害的)。它是由Hinton和他的学生Alex Krizhevsky设计的。也是在那年之后,深度学习开始迅速发展。下图是从Alex
2021-10-24 14:30:12 101KB alexnet ex le
1