matlab出图,运行保障,代码有详细说明,适用初学者。
2022-06-07 20:06:50 139KB matlab lstm 源码软件 开发语言
用于合成Kong径雷达目标识别的多视角双向LSTM网络
2022-06-04 22:19:17 2.12MB 研究论文
1
胶囊网络概述(md原文件),包含代码(python-pytorch),参考博客:https://blog.csdn.net/m0_46384757/article/details/121559514
2022-05-24 17:05:25 16.47MB 网络 python 开发语言
胶囊网络python-pytorch版本,参考博客:https://blog.csdn.net/m0_46384757/article/details/121559514
2022-05-24 17:05:23 30.9MB python pytorch 网络 源码软件
用于故障诊断的胶囊网络 最大训练>99% 最大测试>98% 原始振动信号经过滑动窗口采样归一化后成为32x32的图像,再经过数据增强后输入到胶囊网络中。这是纯破胶囊网络的代码实现。由于胶囊网络的参数约为8558848,所以在我的970m GPU上训练需要很长时间。但是准确率还是很高的。 一般的组合模型可以达到很高的准确率,但需要重新设计卷积核的大小,使用一维卷积。所有这些都需要通过debug来实现,目前还没有实现。现在胶囊网络故障诊断一般结合inception或者bilstm。
2022-05-23 19:04:04 11KB 网络 综合资源
胶囊网络的Tensorflow实现 要求 tensorflow> = 1.4(也许1.3也应该工作,尽管我没有测试它) 麻木 枕头 科学的 胶囊网络 我试图实现这个想法 文件描述 config.py包含所有需要的超级参数。 utils.py包含有关加载和保存的功能。 model.py具有capsNet和整个模型实现的所有构建块。 train.py用于培训。 eval.py用于评估。 用法 训练 $ python train.py 评估 $ python eval.py 训练 结果 分类 时代 10 测试权限 99.278 重建
2022-05-22 21:08:57 11.19MB Python
1
实体关系抽取旨在识别网络文本中的实体,并提取出文本中实体之间隐含的关系。研究表明,深度神经网络在实体关系抽取任务上具有可行性,并优于传统关系抽取方法。目前的关系抽取方法大都使用卷积神经网络(CNN)和长短期记忆神经网络(LSTM),然而CNN只考虑连续词之间的相关性而忽略了非连续词之间的相关性。另外,LSTM虽然考虑了长距离词的相关性,但提取特征不够充分。针对这些问题,提出了一种CNN和LSTM结合的实体关系抽取方法,采用3种结合方法进行了实验,验证了该方法的有效性,在F1值上有一定的提升。
1
anaGo anaGo是一个在Keras中实现的用于序列标记(NER,PoS标记等)的Python库。 anaGo可以解决序列标记的任务,例如命名实体识别(NER),词性标记(POS标记),语义anaGo anaGo是用于序列标记(NER,PoS标记等)的Python库,在Keras中实现。 anaGo可以解决序列标记任务,例如命名实体识别(NER),词性标记(POS标记),语义角色标记(SRL)等。 与传统的序列标签求解器不同,anaGo不需要定义任何语言相关的功能。 因此,我们可以轻松地将anaGo用于任何语言。 作为anaGo的示例,下图显示了英语的命名实体识别:
2022-05-19 16:40:14 5.91MB Python Deep Learning
1
机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 其主要的步骤包括数据预处理、分词、建立词典、载入数据集、Encoder-decoder、seq2seq等。 注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器
2022-05-18 22:02:21 64KB AS c fo
1