GoogLeNet pytorch代码
2022-04-13 09:14:01 9.06MB pytorch python 人工智能 深度学习
1
GoogLeNet V2 pytorch代码
2022-04-13 09:14:00 12KB pytorch python 人工智能 深度学习
1
GoogLeNet_v3 pytorch代码
2022-04-13 09:13:59 7MB pytorch python 人工智能 深度学习
1
GoogLeNet_v4 pytorch代码
2022-04-13 09:13:56 162KB pytorch python 人工智能 深度学习
1
训练好的googlenet模型,里面包含模型文件和参数,可以直接用来测试不需训练
2022-03-16 21:58:01 46.96MB googlenet caffe
1
介绍: 相较于简单暴力的提高深度网络性能方法:加深网络模型,增加数据集。作者提出结合深度模型和传统机器视觉思想来提高效能。(准确率+效率,特别适合用于移动端或是嵌入式,计算能力有限,为解决这一问题,可从减少参数入手) base:赫布理论、多尺度、稀疏结构、network in network(下一篇阅读) 相关工作: 1、池化有益于准确率的提升 2、多滤波器模拟多尺度的学习 3、network in network ,提高网络的表现能力,增加深度却不增加计算复杂度,也可以增加宽度,使用33、55的滤波器 4、r-cnn的两个子阶段:低阶特征产生候选框,cnn进行分类(更高的目标边界框召回使用多
2022-03-13 13:59:36 218KB googlenet
1
imagenet-googlenet-dag网络测试代码,将编译好的matconvnet-25放进去之后可以直接调用运行,且已经放进googlenet_dag模型
1
AlexNet 特征 8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连接输出层。 将sigmoid激活函数改成了更加简单的ReLU激活函数。 用Dropout来控制全连接层的模型复杂度。 引入数据增强,如翻转、裁剪和颜色变化,从而进一步扩大数据集来缓解过拟合 第一个卷积层 输入的图片大小为:2242243(或者是2272273) 第一个卷积层为:111196即尺寸为1111,有96个卷积核,步长为4,卷积层后跟ReLU,因此输出的尺寸为 224/4=56,去掉边缘为55,因此其输出的每个feature map 为 555596,同时后面跟LRN层,尺寸不变. 最大池化层,核大小为33
2022-03-02 16:54:30 291KB “人造太阳”计划 alexnet网络结构 ex
1
欢迎想入门CNN和深度学习的朋友们阅读论文。 GoogleNet始于LeNet-5,一个有着标准的堆叠式卷积层冰带有一个或多个全连接层的结构的卷积神经网络。通常使用dropout来针对过拟合问题。  为了提出一个更深的网络,GoogLeNet做到了22层,利用inception结构,这个结构很好地利用了网络中的计算资源,并且在不增加计算负载的情况下,增加网络的宽度和深度。同时,为了优化网络质量,采用了Hebbian原理和多尺度处理。GoogLeNet在分类和检测上都取得了不错的效果。  最近深度学习的发展,大多来源于新的想法,算法以及网络结构的改善,而不是依赖于硬件,新的数据集,更深的网络,并且深度学习的研究不应该完全专注于精确度的问题上,而更应该关注与网络结构的改善方面的工作。
2022-01-10 09:00:54 2.43MB deeplearning detection
1
Pytorch实现GoogLeNet模型在CIFAR10数据集上的测试。ipynb文件,包含了完整的训练、测试输出数据。
2021-12-22 15:12:32 37KB pytorch cifar10 python
1