CNN-Numpy-实施 手动实现卷积神经网络,而无需使用诸如pytorch和tensorflow之类的现代库。 换句话说,我从头开始构建了一个神经网络,其中涉及实现正向和反向传播。 我手动编写了反向传播代码,并使用numpy手动实现了每一层的偏导数。 我在这里使用的方程式示例可以在这里找到。 E.Bendersky(2016年10月28日)。 Softmax函数及其导数。 取自 我最完善,最成功的网络是跟踪多个功能的多元回归CNN。 它可以正确确定两个图像之间的形状数量差异以及是否存在反射,但是在测量旋转度和形状之间的填充颜色差异方面存在困难。 为了训练该网络,我必须生成自己的数据集。 项目描述 AI研究人员已将Raven的渐进矩阵(RPM)视觉智商测试用作开发新策略,算法和认知代理的测试平台。 通过构建可以逐步解决更棘手问题的智能体,研究人员希望推动人工智能领域的发展。 下面显示了
2021-12-14 20:47:49 307.08MB
1
中文 | Chinese-number-gestures-recognition Chinese number gestures recognition app(数字手势识别APP,识别0-10) 基于卷积神经网络的数字手势识别APP(安卓) 1、项目简介 这是一个基于卷积神经网络的数字手势识别APP(安卓),主要功能为:通过手机摄像头识别做出的数字手势,能够识别数字0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 对应的手势。 Chinese-number-gestures-recognition项目下包含两块代码:1. DigitalGestureRecognition为安卓APP代码;2. digital_gesture_recognition为PC端处理数据及训练模型代码,编程语言为python。 开发环境: PC端:python3.6, TensorFlow-gp
2021-12-14 12:46:43 147.39MB Java
1
Sentiment_Analysis_Deep_Learning:使用深度学习(CNN)进行情感分析
2021-12-14 00:45:40 21.69MB JupyterNotebook
1
本文提出了一种学习深度卷积神经网络(CNN)中可解释卷积滤波器的通用方法,用于对象分类,每个可解释滤波器都对一个特定对象部分的特征进行编码。我们的方法不需要额外的注释对象部分或纹理的监督。相反,我们使用与传统CNNs相同的训练数据。在学习过程中,我们的方法在一个高卷积层中自动分配每个可解释的过滤器,每个过滤器的对象都是某个类别的一部分。
2021-12-13 12:28:03 8.14MB 可解释CNN的对象分类
1
matlab的egde源代码神经网络 mdCNN是MATLAB工具箱,可为2D和3D输入实现卷积神经网络(CNN)。 网络是多维的,内核是3D的,卷积是3D的。 它适用于诸如CT / MRI的体积输入,但也可以支持1D / 2D图像输入。 该框架支持所有主要功能,例如droput,padding,stride,max pooling,L2正则化,动量,交叉熵/ MSE,softmax,回归,分类和批处理归一化层。 框架是完全用matlab编写的,并进行了重大优化。 在培训或测试期间,所有的CPU内核都通过使用Matlab内置多线程技术参与其中。 对于网络,有几个示例被预先配置为运行MNIST,CIFAR10、1D CNN,用于MNIST图像的自动编码器和3dMNIST-MNIST数据集到3D卷的特殊增强。 MNIST演示在几分钟内达到99.2%,CIFAR10演示达到约80% 我在一个用于在3D CT图像中对椎骨进行分类的项目中使用了此框架。 = = = = = = = = = = = = = = = = = = = = 运行MNIST演示:进入文件夹“ Demo / MNIST”,运
2021-12-13 11:30:40 99KB 系统开源
1
视觉常识R-CNN(VC R-CNN) [NEW]:我们提供了VC R-CNN的培训代码和详细的自述文件。 :glowing_star: [NEW]:提供了在MSCOCO上预训练的VC功能。 试试看! :glowing_star: 该存储库包含官方的PyTorch实施和为论文“ ”提议的VC功能。 有关技术细节,请参阅: 视觉常识R-CNN ,王建强黄,,IEEE 2020年计算机视觉和模式识别会议(CVPR) 关键词:因果干预; 视觉常识; 表征学习[] , [] , [ ] , [ ] 比比克斯 如果您发现我们的VC功能和代码有帮助,请考虑引用以下内容: @inproceedings{wang2020visual, title={Visual commonsense r-cnn}, author={Wang, Tan and Huang, Jianqiang and Zhang, Hanwang and Sun,
2021-12-13 10:09:42 2.68MB Python
1
用Tensorflow搭建CNN卷积神经网络,实现MNIST手写数字识别-附件资源
2021-12-13 09:19:36 106B
1
对于想要学习深度学习神经网络编程的童鞋们,最开始想迈出第一步的心情往往是恐惧的,焦虑的,而要是有一段可以让你快速读懂的代码,那绝对会让你安心开心的飞起来,它就是这样的“引路人”!
2021-12-12 21:11:42 970KB CNN 深度学习 神经网络
1
博客链接:https://blog.csdn.net/qq_44186838/article/details/117995029 主要功能:数据清洗、文本特征提取、建立模型(BiLSTM、TextCNN、CNN+BiLSTM、BiLSTM+Attention)、文本摘要 模型简介 **Bi-LSTM** LSTM的全称是Long Short-Term Memory,它是RNN(Recurrent Neural Network)的一种。LSTM由于其设计的特点,非常适合用于对时序数据的建模,如文本数据,该模型可以学习长期依赖信息,它通过特殊的门结构来去除或增加信息到细胞状态的能力,门是一种让信息选择式通过的方法,一共有三个门。第一层是忘记门,决定我们会从细胞状态中丢弃什么信息,下一步是确定什么样的新信息会被存放在细胞状态,下一步是更新细胞状态,最后输出信息。 而Bi-LSTM模型由前向的LSTM和后向的LSTM组合而成,能够很好的处理双向数据的序列信息。一个LSTM层式从左往右处理,而另一个是从右往左处理。总体而言,更适合应用于长文本的分类任务。 **TextCNN** TextCNN模型是由 Yoon Kim提出的Convolutional Naural Networks for Sentence Classification一文中提出的使用卷积神经网络来处理NLP问题的模型。TextCnn在文本分类问题上有着更加卓越的表现。从直观上理解,TextCNN通过一维卷积来获取句子中n-gram的特征表示。TextCNN对文本浅层特征的抽取能力很强,在短文本领域如搜索、对话领域专注于意图分类时效果很好,应用广泛,且速度快,一般是首选;**对长文本领域,TextCNN主要靠filter窗口抽取特征,在长距离建模方面能力受限,且对语序不敏感。** **CNN+BiLSTM** 在一些任务当中,会选择在卷积层后加上一层LSTM或BiLSTM(反过来则不行),用于增强模型对语义的理解。CNN负责提取文本的特征,而BiLSTM负责理解句子的语义信息。当CNN融合了循环神经网络时,就是结合了这两者的功能,往往效果会有所提升。 PS:不要想着拿TextCNN去融合BiLSTM,不是说不能融合,是没有必要。TextCNN本身就是一个非常优秀的模型了,在TextCNN后面加上一层循环神经网络,往往只是带来了更多的计算时间,其本身对于语义的理解,并没有什么帮助,甚至有可能对结果进行干扰。 **BiLSTM+注意力机制** 当输入的文本非常长的时候,我们之前引以为傲的双向长短期记忆模型也难以成为学霸,对文本有一个很好的向量表达。所以,这个时候就可以考虑使用注意力机制,来尝试抓住文本的重点。具体来讲,Attention机制就是通过保留BiLSTM编码器对输入序列的中间输出结果,再训练一个模型来对这些输入进行选择性的学习并且在模型输出时将输出序列与之进行关联。
2021-12-11 18:18:14 23.51MB 情感分类 bilstm textcnn 注意力机制
AutoShootCNN:实时物体检测CNN,用于自动射击FPS游戏中的敌人
2021-12-11 00:09:17 6KB Python
1