CA-Net:用于可解释医学图像分割的综合注意力卷积神经网络 该存储库提供“ CA-Net:可解释医学图像分割的综合注意力卷积神经网络”的代码。 现在可以在上我们的工作。 接受了我们的工作。 图1. CA-Net的结构。 图2.皮肤病变分割。 图3.胎盘和胎脑分割。 要求条件 一些重要的必需软件包包括: 版本> = 0.4.1。 智慧 Python == 3.7 一些基本的python软件包,例如Numpy。 按照官方的指导安装 。 用法 用于皮肤病变分割 首先,您可以在下载数据集。 我们仅使用了ISIC 2018 task1训练数据集,要对数据集进行预处理并另存为“ .npy”,请运行: python isic_preprocess.py 为了进行5倍交叉验证,请将预处理数据分成5倍并保存其文件名。 跑步: python create_folder.py 要在ISI
2023-02-22 20:42:26 36.8MB attention-mechanism Python
1
深度学习中的GAM注意力机制pytorch实现版本
2023-02-22 11:24:10 1KB pytorch 深度学习 人工智能 python
1
TimeSformer-Pytorch 实现,是一种基于关注点的纯净,简单的解决方案,可以在视频分类上达到SOTA。 该存储库将仅存储性能最佳的变体“时空分散注意力”,无非就是沿空间之前的时间轴的注意力。 安装 $ pip install timesformer-pytorch 用法 import torch from timesformer_pytorch import TimeSformer model = TimeSformer ( dim = 512 , image_size = 224 , patch_size = 16 , num_frames = 8 , num_classes = 10 , depth = 12 , heads = 8 , dim_head = 64 , attn_dropout =
1
本系列以通俗的方式讲解注意力机制Attention的整体知识,让i你爱上Attention的神奇应用。 资料:
2023-02-16 21:16:38 12.73MB 人工智能 深度学习 应用
1
Dmf_AttnDMF 深度矩阵分解模型 与 带注意力的深度矩阵分解模型
2023-01-05 16:49:03 326KB Python
1
Transformer部分的学习code,注意力机制。
1
Swin-Transformer-main(截止到2022年12月23日).zip
1
线课堂学生注意力识别数据集,主要检测对象为:长时间闭眼、打哈欠、凝视远方,一共19000多张线上课堂图片 线课堂学生注意力识别数据集,主要检测对象为:长时间闭眼、打哈欠、凝视远方,一共19000多张线上课堂图片 线课堂学生注意力识别数据集,主要检测对象为:长时间闭眼、打哈欠、凝视远方,一共19000多张线上课堂图片
2022-12-22 18:30:56 417.08MB 课堂 注意力 打哈欠 闭眼
自然场景下的文本检测任务是图像处理领域中的难点之一. EAST (Efficient and Accurate Scene Text detector)算法是近年来比较出色的文本检测算法, 但是增加后置处理之后的AdvancedEAST算法仍存在由于激活像素的头尾边界丢失导致的漏检情况, 对密集文本的检测效果也不是很理想. 因此提出了Dilated-Corner Attention EAST (DCA_EAST)改进算法, 对网络结构加入空洞卷积模块以及角点注意力模块, 改善了漏检情况. 针对损失函数, 加入类别权重因子和样本难度权重因子, 有效提升了密集文本的检测效果. 实验结果表明, 该算法在ICDAR2019的ReCTS数据集上准确率为93.02%, 召回率为76.69%, F-measured值为84.07%, 优于AdvancedEAST算法.
1
基于改进SSD算法(SE+特征融合)的苹果叶病虫害识别系统源码(pytorch框架)+改进前源码+病害数据集+项目说明.zip 主要改进点如下: 1、替换backbone为Resnet/MobileNet 2、添加一种更加轻量高效的特征融合方式 feature fusion module 3、添加注意力机制 (Squeeze-and-Excitation Module 和 Convolutional Block Attention Module) 4、添加一种解决正负样本不平衡的损失函数Focal Loss 附有苹果叶病害数据集,可训练模型
2022-12-07 12:27:48 90.31MB SSD 算法改进 注意力机制 SE模块