使用MIMIC-IV中的影像报告数据,基于pytorch搭建transformer神经网络,使用gensim的word2vec包训练词向量配合pytorch使用,进行英文影像报告的分类。 更加详细的资源介绍参见https://blog.csdn.net/weixin_46523923/article/details/122644174
2022-08-14 09:08:41 2.96MB pytorch word2vec transformer python
1
vgg16利用相似性损失函数预训练模型(cpu)
2022-08-10 17:05:58 449.25MB 深度学习
1
常见激活函数的图,用excel画的,有图有数据,高清缩放不变形,论文必备,包括Sigmoid、Tanh、ReLU、LeakyReLU
2022-08-07 12:04:56 52KB 深度学习 激活函数 毕业论文
1
具有单周期学习率时间表的AdamW的Tensorflow 2.3实现 基于S.Gugger和J.Howard在这里的帖子: : 用法 optimiser = OneCycleAdamW(learning_rate: float, weight_decay: float, cycle_length: int) 学习率:在周期峰值时使用的最大学习率学习率将逐渐上升,然后下降 重量衰减:要应用的重量衰减。 这将遵循与学习率相同的时间表 周期长度:完成“一个周期”策略的步骤数。 在“ cycle_length”之后,学习率将呈指数递减的趋近于零。 经过测试: Python 3.8 张量流2.3 张量流数据集4.2.0 tensorflow-addons 0.12.1
2022-08-05 10:54:27 61KB Python
1
1. 输入层:包含 2. 投影层:将输入层的 3. 输出层:输出层对应一颗 1. 输入层:只含有当前样本的中心词 2. 投影层:该层为恒等投影,其实这层可有可无
2022-08-04 17:00:22 1.08MB word2vec 算法
1
为了解决传统BP (Back Propagation)神经网络收敛较慢的问题,通过BP神经网络搭建火点预测模型,采用一种自适应学习率的方法改进BP神经网络,经比较该算法收敛较快,模型输出可达到预期效果.同时利用现场可编程逻辑门阵列(FPGA)的动态可重构技术实现了改进后的神经网络,通过仿真和结果测试,该设计在预测结果的基础上又大大减少了预测时间,为环保预测、检测轨迹规划提供了一定的理论基础.
2022-08-03 16:29:47 1.18MB BP神经网络 FPGA 火点预测 自适应学习率
1
Modified CNN-LSTM for Pain Facial Expressions Recognition10 PUBLICATIONS 4 CITAT
2022-08-03 13:01:12 835KB cnn lstm
1
损失函数值的3D示意图
2022-08-03 09:07:42 873KB 深度学习
1
使用pytorch搭建的简单的LSTM多变量多输出时间序列预测的使用例。 生成了多个以sinx、cosx、tanx构成的序列,使用[i:i+50]的数据预测[i+51]的数据。x是步长为0.1的等差数列 作者初学时用来当说明文档使用,程序适合初学者捣鼓,注释写的很详细了
2022-07-29 09:07:53 3KB LSTM Python pytorch deep
1