QT+OpenCV+ANN_MLP实现简单车牌识别源码,包括训练数字和字母的代码及样本
2022-05-09 19:24:56 1.71MB QT OPENCV ANN_MLP 神经网络
1
内容概要:本资源所用的开发环境是jupyter,包含MLP/LeNet/AlexNet/GoogLeNet/ResNet五个深度神经网络模型结构和MNIST、Fashion MNIST、HWDB1三个不同的数据集。所有运行结果都写在了.ipynb文件中,所用的开发框架为tensorflow2。 适合人群:具备一定编程基础,了解深度学习人员。
2022-05-02 16:06:04 52.66MB 分类 文档资料 数据挖掘 人工智能
1
1.用Mxnet实现图像分类——比较LR & MLP & CNN区别 2.图像数据包括43种交通指示牌图像,每种图像数量200多,总图像数量为10000+ 3.主要代码为ipynb格式,内含判分模块 4.Mxnet网上教程非常少,此资源可作为学习Mxnet&CV的很好参考资料
2022-04-17 21:07:24 6.16MB Mxnet CV 计算机视觉 深度学习
深度学习初步,全连接神经网络,MLP从原理到实现(二)原理部分,过拟合,激活函数,batc。。。 深度学习原理.pdf
视觉系统实验室:在GPU上学习计算机视觉[自述文件未定期更新] 作者:Saikat Roy, 波恩大学CudaVision实验室(SS19)的存储库(主要)在PyTorch,Python3和Jupyter笔记本电脑上实现。 该项目从神经网络的基础开始,并延伸到更深层次的模型。 以下项目包含在相应的文件夹中: 项目1:Softmax回归(无autograd / Pytorch张量) 涉及使用softmax回归和手动梯度计算对MNIST数据集进行分类。 经过5次简单的迭代运行后,训练和测试集的准确度分别为0.8931和0.8866 。 项目2:多层神经网络 涉及在PyTorch上使用香草SGD进行简单的多层神经网络训练,并通过k倍蒙特卡洛交叉验证进行超参数(学习率和批量大小)搜索。 分类是在CIFAR-10数据集上完成的。 下面给出了在3072-128-128-10体系结构上进行50次
2022-04-10 21:39:44 14.94MB 系统开源
1
MLP模拟器(+ NeuroSim)V3.0 MLP + NeuroSim框架是由Shimeng (乔治亚理工学院)开发的。 该模型是在非商业基础上公开提供的。 该模型的版权由开发人员维护,并且该模型根据 这是该工具的发行版本3.0(2019年3月1日)。 此版本将算法权重从V2.0中的(0,1)扩展到V3.0中的(-1,1)。 此外,还添加了更多的训练算法,例如动量法,Adagrad,RMSprop,Adam。 基于数字eNVM(例如STT-MRAM)的突触阵列支持并行读取,以减少延迟。 开发人员:陈排宇,彭晓晨和罗延东。 如果您对模型有任何逻辑上的问题或意见,请联系于世教授( ),如果您有技术上的问题或意见,请联系( )或( )。 这项研究得到了NSF CAREER奖,NSF / SRC E2CDA计划和SRC / DARPA JUMP中心之一ASCENT的支持。 如果
2022-04-06 16:00:58 20.68MB C++
1
使用指令的操作对SVM、MLP、LSTM算法进行了训练和测试的操作,采用CASIA数据集进行训练,需要安装python的语音处理报librosa,还有可以使用opensmile的部分,内容较为丰富
2022-03-14 00:09:48 73.04MB 语音情感识别 SVM LSTM MLP
1
本科毕业设计用网上的源码 简单的中文文本情感分类 一个用 PyTorch 实现的中文文本情感分类网络,代码较简单,功能较丰富,包含了多种模型 baseline。 环境需求 python == 3.6 torch == 1.1.0 Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz NVIDIA TITAN Xp 其余的见 requirements.txt 使用方法 先预处理,./run_preprocess_word2vec.sh 或 ./run_preprocess_elmo.sh 3(3 是 gpu 编号) 然后运行 python3 main.py --config_path config_cnn.json 预处理 将所给文本的每个词转换成预训练模型的词向量后存到文件里。我分别尝试了这两种 embedding: ELMo 中文预训练模型,1024d( Chinese-Word-Vectors,300d( 请自行下载相应的模型文件到 data/word2vec/ 或 data/zhs.model 文件夹下。 具体细节见 preprocess.py 文件
2022-03-05 11:13:27 4.17MB 系统开源
1
随着攻击技术的不断进步,基于机器学习(Machine Learning,ML)、深度学习(Deep Learning,DL)等技术的建模攻击严重威胁了PUF的安全。针对Glitch PUF单元电路静态输出的缺陷,首次提出使用多层感知器(Multilayer Perceptron,MLP)算法对Glitch PUF进行机器学习,解决了Glitch PUF输出为非线性可分数据的问题,能够对Glitch PUF攻击并预测其输出。实验表明,对比于逻辑回归(Logistic Regression,LR)算法和随机森林(Random Forest,RF)二分类算法,提出的MLP算法显著降低了预测错误率。
2022-03-04 19:09:37 644KB 信息安全
1
p 原始的多层感知器实现 用法:mlp输入数据输出目录纪元最大速度图层-cfg 输入数据-带有数据的文本文件的路径:每行包含点坐标及其类标签 output- dir-包含训练结果的dir的路径(将包含errs.txt,errs_val.txt,weights.txt,results.txt) epoch-max- [int]最大纪元数 速度-[双]学习速度 layers-cfg-文本文件的路径,其中包含带有隐藏层的输出编号的一行 err_graph.py-用于培训和验证错误可视化的脚本 用法:python err_graph.py draw_results.py-用于分类结果可视化的脚本 用法:python draw_results.py results-path results-path :output-dir / results.txt
2022-03-01 16:57:51 32KB C++
1