卷积神经网络实现图片分类(CIFAR-10) 保真,主页有实验说明文章,可以相互参考
2022-05-02 18:34:55 5KB cnn 分类 综合资源 人工智能
1
CIFAR-10数据集的所有图像已全部保存至压缩包内
2022-04-17 12:23:11 48.86MB 分类 人工智能 机器学习 深度学习
1
The CIFAR-10 and CIFAR-100 are labeled subsets of the 80 million tiny images dataset. They were collected by Alex Krizhevsky, Vinod Nair, and Geoffrey Hinton. from:http://www.cs.toronto.edu/~kriz/cifar.html 二进制数据集
2022-03-31 15:47:05 161.67MB 数据集
1
2.2 电源引脚 2.2.1 去耦电容 需要在每对电源引脚(例如,VDD/VSS 和 AVDD/AVSS) 上使用去耦电容。 使用去耦电容时,需要考虑以下标准: • 电容的类型和电容值 :建议使用参数为0.1 μF (100 nF)、10-20V的电容。该电容应具有低ESR, 谐振频率为 200 MHz 或更高。建议使用陶瓷电容。 • 在印制电路板上的放置:去耦电容应尽可能靠近引 脚。建议将电容与器件放置在电路板的同一层。如 果空间受到限制,可以使用过孔将电容放置在PCB 的另一层,但请确保从引脚到电容的走线长度不超 出 0.25 英寸 (6 毫米)。 • 高频噪声处理:如果电路板遇到高频噪声(频率高 于数十 MHz),则另外添加一个陶瓷电容,与上述 去耦电容并联。第二个电容的电容值可以介于 0.001 μF 至 0.01 μF 之间。请将第二个电容放置在 靠近每个主去耦电容的位置。在高速电路设计中, 需要考虑尽可能靠近电源和接地引脚放置十对这样 的电容(例如, 0.1 μF 电容与 0.001 μF 电容并联 构成一对)。 • 大程度提高性能:对于从电源电路开始的电路板 布线,需要将电源和返回走线先连接到去耦电容, 然后再与器件引脚连接。这可以确保去耦电容是电 源链中的第一个元件。同等重要的是尽可能减小电 容和电源引脚之间的走线长度,从而降低 PCB 走 线电感。 2.2.2 槽路电容 对于电源走线长度超出 6 英寸的电路板,建议对集成电 路(包括单片机)使用槽路电容来提供本地电源。槽路 电容的电容值应根据连接电源与器件的走线电阻和应用 中的器件的 大电流确定。也就是说,选择的槽路电容 需要满足器件的可接受电压骤降要求。典型值的范围为 4.7 μF 至 47 μF。 2.3 主复位(MCLR)引脚 MCLR 引脚提供两种特定的器件功能:器件复位,以及 器件编程和调试。如果 终应用中不需要进行编程和调 试,则只需直接连接 VDD 即可。添加其他元件有助于提 高应用抵抗由于电压骤降导致意外复位的能力。图 2-1 给出了一种典型配置。根据应用的需求,还可以实现其 他电路设计。 在编程和调试过程中,必须考虑到引脚上可能会增加 的电阻和电容。器件编程器和调试器会驱动 MCLR 引 脚。因此,特定电平 (VIH 和 VIL)和快速信号跳变一 定不能受到不利影响。所以,需要根据应用和 PCB 需 求来调整 R1 和 C1 的具体值。例如,在编程和调试操 作期间,建议通过使用跳线将电容 C1 与 MCLR 引脚隔 离(图 2-2)。对于正常的运行时操作,可以将跳线放 回原处。 与 MCLR 引脚关联的所有元件都应放置在距离该引脚 0.25 英寸(6 毫米)的范围内。 图 2-2: MCLR 引脚连接示例 注 1: 建议 R1 ≤ 10 kΩ。建议的起始值为 10 kΩ。请 确保满足 MCLR 引脚 VIH 和 VIL 规范。 2: R2 ≤ 470Ω将限制任何电流从外部电容C流入 MCLR,以避免由于静电放电 (Electrostatic Discharge, ESD)或 电 过 载 (Electrical Overstress,EOS)导致 MCLR 引脚损坏。请 确保满足 MCLR 引脚 VIH 和 VIL 规范。 C1 R2 R1 VDD MCLR PIC18FXXKXXJPDS39977C_CN 第 48 页 初稿  2011 Microchip Technology Inc.
2022-03-20 09:55:07 4.81MB datasheet
1
CIFAR-10数据集
2022-01-28 14:04:43 140.06MB CS231N 深度学习 图像处理 斯坦福
1
使用matlab语言,在cifar-10数据集上完成了k-means方法的聚类任务,但是效果不是很好,由于使用的是matlab自身所带的函数,可能运行效果与此有关系。先暂定存档,日后想到好的方法再进行改进。
2022-01-19 20:19:08 320.78MB kmeans cifar-10-matlab
1
keras卷积神经网络下的CIFAR-10图像识别,该资源由浅入深,让你从0基础一步一步搭建神经网络模型。
2022-01-13 15:29:43 299KB keras CNN CIFAR-10
1
已经讲到,Keras在构建模型方面,尤其是串联结构的模型时,使用Sequential无疑是一种比较好的选择,但是随着深度学习的不断发展,面对多种多样的模型,尤其是像GoogleNet等带有Inception结构的模型,仅仅是并联的结构是无法满足实际的需要,这种并联的网络结构往往对应着多个输出,这种时候我们往往需要选择更加通用的Functional模型,因为其的广泛性与通用性,在很多开源项目上面使用的就是这种以Model为类名的函数式模型。 本篇将会以CIFAR-10数据集的一系列操作为时间线,来学习Functional模型。https://blog.csdn.net/qq_37972530/article/details/85873949
2022-01-05 10:23:11 163.15MB CIFAR-10 Keras TensorFlow
1
使用tensorflow简单实现了残差网络的block模块以及 bottleneck模块,并在cifar-10数据集上进行了简单测试
2021-12-30 20:33:43 3KB 残差网络 cifar-10测试 深度学习
1
一、CIFAR-10简介 CIFAR-10数据集包含10个类别,共计60000张 32×32 3通道彩色图像。其中每个类别包含6000张图像:训练图像50000张,测试图像10000张。 数据集被分为五个训练批次和一个测试批次。每个测试批次有10000张图像,为每个类别各随机挑出1000张构成;训练批次为随机打乱的剩余图像。某些训练批次可能出现一个类型的图像多于另一个类型的情况,但总体而言,训练批次包含每个类型恰好5000张。 二、说明 图片原格式为32*32 3通道 第一次卷积:卷积核大小为3*3,输出32*32 32通道 第一次池化:最大值池化,输出为16*16 32通道 第二次卷积:卷
2021-12-24 12:22:41 191KB cifar-10 ens fl
1