基于卷积-长短期记忆网络加注意力机制(CNN-LSTM-Attention)的时间序列预测程序,预测精度很高。 可用于做风电功率预测,电力负荷预测等等 标记注释清楚,可直接换数据运行。 代码实现训练与测试精度分析。
2023-12-11 12:30:03 285KB 网络 网络 lstm
1
CBAM注意力机制的MatLab代码实现,感兴趣的可以下载看看,代码分模块封装好了,简单易用!
2023-12-09 15:01:04 3KB matlab CBAM 注意力机制 深度学习
1
基于注意力机制attention结合长短期记忆网络LSTM时间序列预测,LSTM-Attention时间序列预测,单输入单输出模型。 运行环境MATLAB版本为2020b及其以上。 评价指标包括:R2、MAE、MSE、RMSE等,代码质量极高,方便学习和替换数据。
2023-12-01 23:39:28 26KB 网络 网络 matlab lstm
1
基于卷积神经网络-长短期记忆网络结合注意力机制(CNN-LSTM-Attention)多变量时间序列预测,CNN-LSTM-Attention多维时间序列预测,多列变量输入模型。matlab代码,2020版本及以上。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2023-11-20 16:46:33 62KB 网络 网络 matlab lstm
1
基于卷积神经网络-双向门控循环单元结合注意力机制(CNN-BIGRU-Attention)多维时间序列预测,matlab代码,2020版本及以上。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2023-11-13 19:53:46 62KB matlab
1
基于注意力的深度多实例学习 基于注意力的深度多实例学习可以应用于广泛的医学成像应用。 在项目“ ”@ ,我在 ICML 2018 论文“Attention-based Deep Multiple Instance Learning”( )中撰写了Keras版本这个 repo 为 Keras 用户分享解决方案。 可以在找到官方 Pytorch 实现。 我使用Tensorflow后端建造它与Keras。 我编写了论文中描述的注意力层,并在结肠图像中进行了 10 倍交叉验证的实验。 我得到了论文中描述的非常接近的平均准确率,可视化结果如下所示。 部分代码来自 。 在训练模型时,我们只使用图像级标签(0 或 1 以查看它是否是癌症图像)。 注意层可以通过仅呈现积极补丁的一小部分子集来提供对决策的解释。 我的实施结果 数据集 结肠癌数据集 已处理的补丁 我把我处理的数据放在这里,你也可以
1
项目概况 认证流程 试验要点
2023-09-22 16:02:53 2.85MB 自动驾驶
1
注意力机制代码 SE CBAM ECA CA SimAM S2-MLPv2 NAMAttention Criss-CrossAttention GAMAttention Selective Kernel Attention ShuffleAttention A2-Net RFB CoTAttention EffectiveSEModule GatherExcite MHSA ParNetAttention SpatialGroupEnhance SequentialPolarizedSelfAttention TripletAttention
2023-08-29 09:15:00 81KB 软件/插件
1
基于注意力机制的人体关键点隐式建模网络
2023-07-08 21:33:34 380.36MB 网络 网络
1
将循环神经网络中的长短期记忆网络和前馈注意力模型相结合,提出一种文本情感分析方案。在基本长短期记忆网络中加入前馈注意力模型,并在TensorFlow深度学习框架下对方案进行了实现。根据准确率、召回率和F1测度等衡量指标,与现有的方案对比表明,提出的方案较传统的机器学习方法和单纯的长短期记忆网络方法有明显的优势。
1