学习丰富的功能以进行真实图像还原和增强(ECCV 2020) , , , , , 和 论文: : 补充文件: 视频演示: : 摘要:为了从降级版本中恢复高质量图像内容,图像恢复在监视,计算摄影,医学成像和遥感等领域拥有众多应用。 最近,卷积神经网络(CNN)与传统的图像恢复任务方法相比取得了巨大的进步。 现有的基于CNN的方法通常以全分辨率或渐进式低分辨率表示形式运行。 在前一种情况下,获得了空间精确但上下文上不那么健壮的结果,而在后一种情况下,生成了语义上可靠但空间上不太准确的输出。 在本文中,我们提出了一种新颖的体系结构,其总体目标是通过整个网络维护空间精确的高分辨率表示,并从低分辨率表示接收强大的上下文信息。 我们方法的核心是包含几个关键元素的多尺度残差块:(a)并行多分辨率卷积流,用于提取多尺度特征;(b)跨多分辨率流的信息交换;(c)空间和渠道关注机
1
pytorch图注意网络 这是Veličković等人提出的图注意力网络(GAT)模型的火炬实施。 (2017, )。 回购协议最初是从分叉的。 有关GAT(Tensorflow)的官方存储库,请访问 。 因此,如果您在研究中利用pyGAT模型,请引用以下内容: @article{ velickovic2018graph, title="{Graph Attention Networks}", author={Veli{\v{c}}kovi{\'{c}}, Petar and Cucurull, Guillem and Casanova, Arantxa and Romero, Adriana and Li{\`{o}}, Pietro and Bengio, Yoshua}, journal={International Conference on Learning
1
CA-Net:用于可解释医学图像分割的综合注意力卷积神经网络 该存储库提供“ CA-Net:可解释医学图像分割的综合注意力卷积神经网络”的代码。 现在可以在上我们的工作。 接受了我们的工作。 图1. CA-Net的结构。 图2.皮肤病变分割。 图3.胎盘和胎脑分割。 要求条件 一些重要的必需软件包包括: 版本> = 0.4.1。 智慧 Python == 3.7 一些基本的python软件包,例如Numpy。 按照官方的指导安装 。 用法 用于皮肤病变分割 首先,您可以在下载数据集。 我们仅使用了ISIC 2018 task1训练数据集,要对数据集进行预处理并另存为“ .npy”,请运行: python isic_preprocess.py 为了进行5倍交叉验证,请将预处理数据分成5倍并保存其文件名。 跑步: python create_folder.py 要在ISI
2023-02-22 20:42:26 36.8MB attention-mechanism Python
1
TimeSformer-Pytorch 实现,是一种基于关注点的纯净,简单的解决方案,可以在视频分类上达到SOTA。 该存储库将仅存储性能最佳的变体“时空分散注意力”,无非就是沿空间之前的时间轴的注意力。 安装 $ pip install timesformer-pytorch 用法 import torch from timesformer_pytorch import TimeSformer model = TimeSformer ( dim = 512 , image_size = 224 , patch_size = 16 , num_frames = 8 , num_classes = 10 , depth = 12 , heads = 8 , dim_head = 64 , attn_dropout =
1
Alphafold2-Pytorch(WIP) 要最终成为一个非官方的工作Pytorch实施 ,令人叹为观止的注意网络解决CASP14。 随着体系结构的更多细节发布,将逐步实施。 复制完成后,我打算将所有可用的氨基酸序列在计算机上折叠起来,并作为学术洪流发布,以供进一步科学使用。 如果您对复制工作感兴趣,请在此#alphafold 安装 $ pip install alphafold2-pytorch 用法 像Alphafold-1一样预测分布图,但要注意 import torch from alphafold2_pytorch import Alphafold2 from alphafold2_pytorch . utils import MDScaling , center_distogram_torch model = Alphafold2 ( dim = 256 ,
1
分层注意网络 我对“ ”的实现(Yang等,2016) Yelp的数据可从下载(与Yang的论文中使用的数据集相同) 下载链接: : 将数据放在名为“ data / yelp_YEAR /”的目录中(其中“ YEAR”为年份) 运行“ yelp-preprocess.ipynb”以预处理数据。 格式变为“标签\ t \ t句子1 \ t句子2 ...”。 然后运行“ word2vec.ipynb”以从训练集中训练word2vec模型。 运行“ HAN.ipynb”以训练模型。 运行“ case_study.ipynb”以运行验证集中的一些示例的可视化,包括注意力向量(句子级别和单词级别)和预测结果。 现在,我们在yelp2013测试仪上获得了约65%的准确度。 对超参数进行微调后,它可能会更好。 我们使用的超参数 时代 批量大小 GRU单位 word2vec大小 优化器 学
2022-05-06 10:34:48 5.69MB nlp rnn attention-mechanism paper-implementations
1
STANet用于遥感图像变化检测 它是本文的实现:一种基于时空注意力的方法和一种用于遥感影像变化检测的新数据集。 在这里,我们提供了时空注意力神经网络(STANet)的pytorch实现,用于遥感图像变化检测。 变更记录 20210112: 添加PAM的预训练权重。 ,代码:2rja 20201105: 添加演示以快速入门。 添加更多的数据集加载器模式。 增强图像增强模块(裁剪和旋转)。 20200601: 第一次提交 先决条件 Windows或Linux Python 3.6+ CPU或NVIDIA GPU CUDA 9.0+ PyTorch> 1.0 视觉 安装 克隆此仓库: git clone https://github.com/justchenhao/STANet cd STANet 安装 1.0+和其他依赖项(例如,torchvision, 和 )
1
用于轨迹预测的 Transformer 网络 这是论文的代码 要求 pytorch 1.0+ 麻木 西比 熊猫 张量板 (项目中包含的是修改版) 用法 数据设置 数据集文件夹必须具有以下结构: - dataset - dataset_name - train_folder - test_folder - validation_folder (optional) - clusters.mat (For quantizedTF) 个人变压器 要训​​练,只需运行具有不同参数的train_individual.py 示例:训练 eth 的数据 CUDA_VISIBLE_DEVICES=0 python train_individualTF.py --dataset_name eth --name eth --max_epoch 240 --bat
1
Yong Li , Student Member, IEEE, Jiabei Zeng , Member, IEEE, Shiguang Shan , Member, IEEE, and Xilin Chen, Fellow, IEEE
2021-12-19 20:24:15 1.3MB 深度学习
1
Keras 自注意力 [| ] 处理顺序数据的注意力机制,考虑了每个时间戳的上下文。 安装 pip install keras-self-attention 用法 基本的 默认情况下,注意力层使用附加注意力并在计算相关性时考虑整个上下文。 以下代码创建了一个注意力层,它遵循第一部分中的方程( attention_activation是e_{t, t'}的激活函数): import keras from keras_self_attention import SeqSelfAttention model = keras . models . Sequential () model . add ( keras . layers . Embedding ( input_dim = 10000 , output_dim =
2021-11-30 20:14:56 26KB keras attention-mechanism Python
1