Swin-Transformer-main(截止到2022年12月23日).zip
1
基于改进SSD算法(SE+特征融合)的苹果叶病虫害识别系统源码(pytorch框架)+改进前源码+病害数据集+项目说明.zip 主要改进点如下: 1、替换backbone为Resnet/MobileNet 2、添加一种更加轻量高效的特征融合方式 feature fusion module 3、添加注意力机制 (Squeeze-and-Excitation Module 和 Convolutional Block Attention Module) 4、添加一种解决正负样本不平衡的损失函数Focal Loss 附有苹果叶病害数据集,可训练模型
2022-12-07 12:27:48 90.31MB SSD 算法改进 注意力机制 SE模块
改进yolov5(多检测头+注意力机制+repvgg结构)pytorch源码+项目说明.zip 集成yolov5(v6.0), 注意力机制, 和repvgg结构 添加了多头检测代码,使用train_multiple_detection_head.py文件进行训练 添加了检测+关键点代码,使用train_key_point.py文件进行训练
基于改进GRU(添加注意力机制)循环神经网络空中目标意图识别_kereas源码+数据+程序说明.zip 程序设计语言为Python 3.7.6;集成开发环境为Anaconda。循环神经网络模型由Python的keras 2.3.0库实现。 数据集为:SCENARIO_DATA_UTF8.zip getData()函数负责读取xml文件,并处理成数据序列及对应的标签序列。参数data_length决定了所读取序列的长度。 getDocumentList()函数用于辅助getData()函数进行数据读取。 modelAttentionAfterGRU()用于实现在GRU层之后添加Attention层的模型。 modelAttentionBiLSTM()用于实现在双向GRU层之后添加Attention层的模型。 全局变量INPUT_DIM表示输入特征的维度;TIME_STEPS = 500 表示输入到神经网络层序列的长度。 主函数中给出了一个示例:读取数据,划分训练集和测试集,多次训练神经网络模型进行交叉验证,计算加权错误率Weighted Error Rate和训练模型所用时间, 最后将
0积分下载,是为了辅助我的博文,请不要随意给我涨积分!!!对应博文【深度学习】ECANet注意力机制
2022-11-30 21:27:29 1.06MB 深度学习
1
0积分,为了辅助我的博文上传的资料,CSDN不要给我随意变动下载积分!!!对应博文【深度学习】CBAM注意力机制
2022-11-29 11:28:45 11KB 深度学习
1
基于GRU与注意力机制实现法语-葡萄牙语的翻译_数据集基于GRU与注意力机制实现法语-葡萄牙语的翻译_数据集基于GRU与注意力机制实现法语-葡萄牙语的翻译_数据集基于GRU与注意力机制实现法语-葡萄牙语的翻译_数据集
2022-11-28 17:25:46 3.08MB 机器学习 深度学习
注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码注意力机制代码
2022-11-19 14:25:30 169KB 注意力机制代码
1
摘要:目前IT招聘信息分类中传统算法存在长距离依赖,且无法突出IT岗位关键词对文本分类特征影响等问题.本文通过训练双向长短期记忆网络BiLSTM与注意力机制相结
2022-11-08 10:08:47 1.17MB 招聘信息 文本分类 One-hot BiLSTM模型
1