MATLAB代码,直接运行,可以换数据。
2023-04-26 22:49:40 980B matlab lstm 神经网络
1
CNN的成功依赖于其两个固有的归纳偏置,即平移不变性和局部相关性,而视觉Transformer结构通常缺少这种特性,导致通常需要大量数据才能超越CNN的表现,CNN在小数据集上的表现通常比纯Transformer结构要好。 CNN感受野有限导致很难捕获全局信息,而Transformer可以捕获长距离依赖关系,因此ViT出现之后有许多工作尝试将CNN和Transformer结合,使得网络结构能够继承CNN和Transformer的优点,并且最大程度保留全局和局部特征。 Transformer是一种基于注意力的编码器-解码器结构,最初应用于自然语言处理领域,一些研究最近尝试将Transformer应用到计算机视觉领域。 在Transformer应用到视觉之前,卷积神经网络是主要研究内容。受到自注意力在NLP领域的影响,一些基于CNN的结构尝试通过加入自注意力层捕获长距离依赖关系,也有另外一些工作直接尝试用自注意力模块替代卷积,但是纯注意力模块结构仍然没有最先进的CNN结构表现好。
1
用于时间序列预测的LSTM.rar
2023-04-20 22:30:56 14KB lstm 用于时间序列预测的LSTM.ra
1
NLP项目实例,实现一个类似于中文输入法中联想的功能;项目利用深度学习框架Pytorch,构建一个LSTM(也支持NGram,TextCNN,LSTM,BiLSTM等)模型,实现一个简易的中文单词预测(词语预测)功能,该功能可以根据用户输入的中文语句,自动预测(补充)词语;基于该项目训练的中文单词预测(词语预测)模型,在自定义的数据集上Top-1准确率最高可以达到91%左右,Top-5准确率最高可以达到97%左右。博文:https://blog.csdn.net/guyuealian/article/details/128582675
2023-04-18 22:22:20 432B 中文单词预测 LSTM NGram TextCNN
1
利用rnn网络和lstm网络进行下一个字的预测 eg: `输入`:**我觉得这个【向后输出20个字】** `输出`:**我觉得这个地方便,但是一个人的,但是一个人的,但是一个**
2023-04-17 01:30:45 3.88MB nlp rnn lstm
1
这里采用沪深300指数数据,时间跨度是2010年10月10号至今,选择每天的最高价格。假设当天最高价依赖当天的前n(如30)天的沪深300的最高价格。用LSTM模型来捕捉最高价的时序信息,通过模型训练,使之学会用前n天的最高价,来判断当天的最高价。
2023-04-16 20:26:26 88KB LSTM
1
在时间序列预测问题中,建立LSTM模型,采用python语言代码实现
2023-04-14 23:11:57 388KB lstm python 软件/插件
1
神经网络LSTM 时间预测MATLAB源码,RNN全称循环神经网络(Recurrent Neural Networks),是用来处理序列数据的。在传统的神经网络模型中,从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多关于时间序列的问题却无能无力。
2023-04-14 10:23:45 13KB 神经网络 MATLAB源码 LSTM时间预测 RNN
通过卷积神经网络学习人机交互 在我在东京大学的研究实习期间保存所做工作的资料库。 日本农业技术研究院。 这项研究是关于使用卷积神经网络(CNN)通过从力传感器中学习数据模式来对人类的几种触摸交互类型进行分类(p,划痕,轻击,硬压和中性)。 该传感器将人的触觉转换为3维力数据。 数据 每0.02秒(50 fps)使用pySerial获取数据。 十个人每次对传感器进行30次触摸交互并记录数据。 从数据统计数据中推断出一个合适的阈值,以区分噪声中的正信号和一个正事件(样本)的合适数量的帧。 通过将每个数据样本内插到40帧并对它们进行归一化以减少零偏噪声的影响,对数据进行预处理。 由于该数据集属于实验室中的个人,因此此处未共享。 即将完成涵盖受试者身份以保护其隐私的过程,然后将发布数据集。 该模型 使用Python中的Keras框架使用数据训练了CNN模型。 Adam优化器用于lr = 1
1
Mask R-CNN项目环境配置| cuda+cudnn+Anaconda+tensorflow+keras--linux系统-附件资源
2023-04-13 12:23:58 106B
1