CNN加速器 卷积神经网络加速器硬件单元 CNN加速器的卷积和池化层算法的详细设计。 该系统适用于灰度图像(每个像素的范围在0到255之间)。 该项目的主要目标是构建加速器模块。
2021-11-23 21:38:48 11.65MB VHDL
1
mnist分类 使用多种方法完成MNIST分类任务 Python 3.6 火炬1.0 Scikit学习0.21 无需下载数据直接跑,代码自动下载 模型 逻辑回归Logistic回归 多层感知机 K近邻KNN 支持向量机 卷积神经网络 循环神经网络 实验报告 见mnistClassification.pdf 对应的latex原始码: :
2021-11-23 21:28:13 1.04MB machine-learning deep-learning svm scikit-learn
1
嵌入式CNN 使用SDSOC和Xilinx Ultrascale +平台在嵌入式OS中部署CNN加速器。 平台 SDx:2018.1 电路板:Xilinx Ultrascale + ZCU 102 FPGA系统 数据类型:现在只有float16! 工作频率:300MHz 数据运动网络频率:300MHz 版本 转换v0.0: 这个版本需要很长时间(大约11秒)。 由于某些转换层中的参数无法完全加载到片上mem中,因此必须从DDR多次读取它们到FPGA。 因此,在数据通信上花费大量时间。 转换v0.1: 此版本需要9秒钟才能运行转换层。 与conv.v0.0相比,权重缓冲区更大,可以将更多权重读取到片上mem中。 对于conv1 / conv2 / conv3,所有权重都可以一次加载到片上mem中。 对于conv4 / conv5,权重缓冲区一次只能读取1/4权重。 因此,在conv
2021-11-23 20:10:08 80KB C++
1
Matlab CNN代码详解可解释的卷积神经网络 python代码已在发布,尽管我的研究小组未实现该代码。 下面的Matlab代码是与论文对应的原始代码。 介绍 本文提出了一种将传统卷积神经网络(CNN)修改为可解释的CNN的方法,以阐明CNN的高卷积层中的知识表示。 在可解释的CNN中,高转换层中的每个过滤器代表某个对象部分。 我们不需要对象部分或纹理的任何注释来监督学习过程。 相反,可解释的CNN在学习过程中会自动在高转换层中为每个过滤器分配一个对象部分。 我们的方法可以应用于具有不同结构的不同类型的CNN。 可解释的CNN中清晰的知识表示可以帮助人们理解CNN内部的逻辑,即,基于CNN做出决定的模式。 实验表明,可解释的CNN中的过滤器比传统CNN中的过滤器在语义上更有意义。 引文 如果使用此代码,请引用以下两篇论文。 张全世,吴应年和朱松春,“可解释的卷积神经网络”,在CVPR 2018中 张全石,王鑫,吴应年,周慧琳和朱松春,“可移植的CNN用于对象分类”,《 IEEE模式分析和机器智能交易》,2020年。DOI:10.1109 / TPAMI.2020.2982882 代码
2021-11-23 16:39:56 89.01MB 系统开源
1
使用一维卷积神经网络处理序列数据,数据类型为一维
现有基于卷积神经网络(CNN)的恶意代码分类方法存在计算资源消耗较大的问题。为降低分类过程中的计算量和参数量,构建基于恶意代码可视化和轻量级CNN模型的恶意软件家族分类模型。将恶意软件可视化为灰度图,以灰度图的相似度表示同一家族的恶意软件在代码结构上的相似性,利用灰度图训练带有深度可分离卷积的神经网络模型 Mobilenet v2,自动提取纹理特征,并采用 Softmax分类器对恶意代码进行家族分类。实验结果表明,该模型对恶意代码分类的平均准确率为99.32%,较经典的恶意代码可视化模型高出2.14个百分点。
2021-11-23 16:34:20 1.54MB cnn模型软件
1
卷积神经网络CNN手写数字图像识别
2021-11-23 15:05:49 6.41MB 神经网络 手写数字 图像识别
1
为提高信用风险评估的准确性,基于互联网行业的用户行为数据,提出一种基于长短期记忆(LSTM)神经网络和卷积神经网络(CNN)融合的深度神经网络个人信用评分方法。对每个用户的行为数据进行编码,形成一个包括时间维度和行为维度的矩阵,通过融合基于注意力机制的LSTM模型和CNN模型2个子模型,从用户原始行为数据中提取序列特征和局部特征。在真实数据集上的实验结果表明、该方法的KS指标和AUC指标均优于传统的机器学习方法和单一的LSTM卷积神经网络方法,证明了该方法在个人信用评分领域的有效性和可行性。
2021-11-23 13:20:48 1.67MB 神经网络CNN
1
(英语) 这个demo展示了如何实现卷积神经网络(CNN)对多输入的图像分类。例如,一个名为MNIST的手写数字数据集被分为上半部分和下半部分,如下图所示,上下半部分部分被送入多输入CNN。 (日本人) 这是一个卷积神经网络的演示,可以输入两种类型的图像。 有两个输入层,例如,输入层A用于输入动物面部图像,输入层B用于输入动物爪子图像,以此类推。 从 2019b 版本开始,一种称为自定义循环的方法成为可能,允许对深度学习进行更详细的自定义。为了方便尝试,手写数字的上半部分和下半部分分别从不同的输入层输入,将卷积等后得到的特征组合起来,用全连接层等进一步推进计算。 .如果您能告诉我您对此示例是否有任何更合适的数据或问题,我将不胜感激。还有一些地方还欠缺制作,希望以后继续更新。
2021-11-23 11:46:19 3.42MB matlab
1
基于tensorflow、CNN、清华数据集THUCNews的新浪新闻文本分类-附件资源
2021-11-23 11:40:04 106B
1