只为小站
首页
域名查询
文件下载
登录
axial-attention:实施轴向注意力-有效地处理多维数据-源码
轴向注意 在Pytorch中实施。 一种简单而强大的技术,可以有效处理多维数据。 它为我和许多其他研究人员创造了奇迹。 只需在数据中添加一些位置编码,然后将其传递到此方便的类中,即可指定要嵌入的尺寸以及要旋转的轴向尺寸。 所有的排列,整形,都将为您解决。 实际上,这篇论文由于过于简单而被拒绝了。 然而,自那以后,它已成功用于许多应用中,包括, 。 只是去展示。 安装 $ pip install axial_attention 用法 图像 import torch from axial_attention import AxialAttention img = torch . randn ( 1 , 3 , 256 , 256 ) attn = AxialAttention ( dim = 3 , # embedding dimension
2021-11-13 09:53:42
9KB
deep-learning
pytorch
artificial-intelligence
attention-mechanism
1
DETR学习分享.pptx
transform相关文章分享,DETR:End-to-End Object Detection with Transformers。博客地址:https://blog.csdn.net/wsLJQian/article/details/118699982?spm=1001.2014.3001.5501
2021-11-10 18:12:55
2.55MB
detr
transform
attention
mtan:实施“注意力集中的端到端多任务学习” [CVPR 2019]-源码
MTAN-多任务注意力网络 该存储库包含多任务注意力网络(MTAN)的源代码,以及来自Shikun , 和引入基线。 请参阅我们的项目页面的详细结果。 实验 图像到图像预测(一对多) 在文件夹im2im_pred ,我们提供了建议的网络以及本文介绍的NYUv2数据集上的所有基线。 所有模型都是用PyTorch编写的,并且在最新的提交中,我们已将实现更新为PyTorch 1.5版。 下载我们经过预处理的NYUv2数据集。 我们从使用预先计算的地面真实法线。 原始的13类NYUv2数据集可以使用定义的分段标签直接下载到。 很抱歉,由于意外的计算机崩溃,我无法提供原始的预处理代码。 更新-2019年6月:我现在发布了具有2、7和19类语义标签(请参阅本文以获取更多详细信息)和(反)深度标签的预处理CityScapes数据集。 下载[256×512个,2.42GB]版本 和[128×2
2021-11-10 14:38:58
39KB
pytorch
multi-task-learning
attention-model
Python
1
PyTorch-Batch-Attention-Seq2seq:批处理双RNN编码器和注意力解码器的PyTorch实现-源码
PyTorch中的快速批处理Bi-RNN(GRU)编码器和注意解码器实现 这段代码是用PyTorch 0.2编写的。 在PyTorch发行其1.0版本时,已经有很多基于PyTorch构建的出色的seq2seq学习包,例如OpenNMT,AllenNLP等。您可以从其源代码中学习。 用法:请注意有关注意力-RNN机器翻译的官方pytorch教程,除了此实现处理批处理输入,并且实现稍微不同的注意力机制。 为了找出实现方式在公式级别上的差异,下面的插图会有所帮助。 PyTorch版本机制图,请参见此处: PyTorch Seq2seq官方机器翻译教程: 巴赫达瑙(Bahdanau)注意图,请参
2021-11-10 12:38:01
4KB
nlp
seq2seq
attention-model
NaturallanguageprocessingPython
1
channel-attention-源码
频道关注模块 该存储库包含ImageNet数据集的“ ResNets频道注意模块的性能-效率比较”的正式实现。 它包括以下几个注意模块的优化的PyTorch实现。 注意模块的性能与其计算成本相比,在几个参数上有很大差异。 例如,尽管与网络的其余部分相比,所有关注模块的触发器数量可以忽略不计,但在GPU上进行测量时,时间开销却变化很大。 对于ImageNet尺寸的图像(224x224像素),在RTX2080 Ti上计算时间的折衷选择了诸如AB和ECA之类的简单模块。 但是,模块开销随分辨率而变化很大,因此请确保为您的用例选择最佳的模块,因为现代网络很少使用仅224x224像素的分辨率。 要对模块进行更深入的比较,请随时阅读我们的论文。 要求 培训需要以下软件包: PyTorch 1.6.0 的Python 3.7.6 CUDA 10.2.89 可选地,对于TensorRT计时测
2021-11-10 06:57:42
1.14MB
Python
1
图像的均方误差的matlab代码-Recurrent-Attention-Model:循环注意力模型
图像的均方误差的matlab代码经常注意模型 介绍 在过去的十年中,神经网络和深度学习在从计算机视觉到自然语言处理的各种应用中得到了快速发展。 随着计算的巨大改进,人们可以训练庞大而深入的神经网络来完成某些特定任务,例如Imagenet中的图像分类,通过RNN进行图像字幕,语义分割,对象检测,文本生成等。 现在,存在许多不同的神经网络功能。 但是,传统的CNN或多或少都面临着相同的问题:计算复杂性,可伸缩性,鲁棒性。 同时,神经网络也被引入到强化学习中,并在游戏中产生了巨大的成功。 里程碑是和。 这些成就使研究人员考虑了将强化学习算法与CNN结合以实现“注意力”机制的可能性。 这是循环注意力模型的动机,它是CNN,RNN和REINFORCE算法的混合体。 原始的创作论文为,在MNIST数据集中表现出色。 该模型可以大大减少计算量,并忽略图像中的混乱情况。 我花了很多时间和精力研究并在张量流中补充了该模型。 这就是该存储库的用途。 模型 本文的模型如下: 图例: 瞥见传感器:给定输入图像,瞥见位置和标度号以提取视网膜表示。 瞥见网络:两个完全连接的层,可在给定输入图像和瞥见位置的情况下输
2021-11-09 20:08:26
24.2MB
系统开源
1
基于BERT-BiLSTM-CRF模型的中文实体识别
命名实体识别是自然语言处理的一项关键技术. 基于深度学习的方法已被广泛应用到中文实体识别研究中. 大多数深度学习模型的预处理主要注重词和字符的特征抽取, 却忽略词上下文的语义信息, 使其无法表征一词多义, 因而实体识别性能有待进一步提高. 为解决该问题, 本文提出了一种基于BERT-BiLSTM-CRF模型的研究方法. 首先通过BERT模型预处理生成基于上下文信息的词向量, 其次将训练出来的词向量输入BiLSTM-CRF模型做进一步训练处理. 实验结果表明, 该模型在MSRA语料和人民日报语料库上都达到相当不错的结果, F1值分别为94.65%和95.67%.
2021-11-09 18:16:01
1.5MB
命名实体识别
BERT模型
双向长短期记忆网络
条件随机场
1
self-attention-HAR:[ECAI 2020]使用自我注意从可穿戴传感器数据中识别人类活动-源码
使用自我注意从可穿戴传感器数据中识别人类活动 Tensorflow 2.x实施“使用自注意力从可穿戴传感器数据中识别人类活动”, ,作者: 和M. Tanjid Hasan Tonmoy等。 [ ] [ ] **此存储库正在维护中。 最终版本的代码将很快发布** 安装 要在python3环境中安装依赖项,请运行: pip install -r requirements.txt 数据集下载 要下载数据集并将其放置在data目录下以进行模型训练和推理, dataset_download.py使用以下命令运行脚本dataset_download.py : python dataset_download.py --dataset DATASET --unzip 此处,此项目的命令行参数DATASET中的数据集名称如下: DATASET = pamap2 / opp / uschad
2021-11-09 15:15:25
73KB
human-activity-recognition
self-attention
Python
1
Transformer_Relative_Position_PyTorch:实现论文“Self-Attention with Relative Position Representations”-源码
Transformer_Relative_Position_Self_Attention 论文Pytorch 实现整个Seq2Seq框架可以参考这个 。
2021-11-08 17:37:23
2KB
Python
1
基于BERT+BiLSTM+CRF的中文景点命名实体识别
为解决旅游文本在特征表示时的一词多义问题, 针对旅游游记文本景点实体识别中景点别名的问题, 研究了一种融合语言模型的中文景点实体识别模型. 首先使用BERT语言模型进行文本特征提取获取字粒度向量矩阵, BiLSTM用于上下文信息的提取, 同时结合CRF模型提取全局最优序列, 最终得到景点命名实体. 实验表明, 提出的模型性能提升显著, 在实际旅游领域内景点识别的测试中, 与以往研究者方法比较下准确率, 召回率分别提升了8.33%, 1.71%.
2021-11-06 18:57:14
1.08MB
BERT语言模型
BiLSTM
条件随机场
景点实体识别
1
个人信息
点我去登录
购买积分
下载历史
恢复订单
热门下载
工程伦理_李正风,丛杭青,王前_北京:清华大学出版社 , 2016.08_P329.pdf
voc车辆检测数据集(已处理好,可直接训练)
2021华为芯片研发岗位笔试题
股票价格预测-LSTM-TCN-GBDT:使用四种算法(LSTM,TCN,GRU,GBDT)进行股票价格的预测和预测结果的检验。有四种算法(LSTM,TCN,GRU,GBDT)用于预测股价并检验预测结果-源码
代码随想录知识星球精华-大厂面试八股文第二版v1.2.pdf
非线性本构关系在ABAQUS中的实现.pdf
2022学术英语写作(东南大学) 章节测试+期末test答案
通过svm cnn knn对高光谱数据集PaviaU进行分类(matlab)
基于LSTM模型的股票预测模型_python
基于STM32的电子时钟设计
安卓开发期末大作业----单词本(源码,任务书,大报告,apk文件)(基于andord studio)
ChinaMeteorologicalDataHandler.R
IEEE33节点配电网Simulink模型.rar
离散时间信号处理第三版课后习题答案
基于MATLAB的Filter使用,低通、带通和高通滤波器的仿真
最新下载
寺冈传秤软件@label
六发左轮存档
全网首发,ESXi670-202006001合成RealTek网卡驱动,支持软路由直通
VMWARE ESXI 6.5 up1已打包realtek瑞昱系列网卡驱动part1
TesseractOCRiOS的chi_sim.traineddata中文语言包(包括10Mb-44.4Mb版本)
银河麒麟V10-arm64-qt5.12.8离线安装包
S7-1200PLC使用SCL语言编程实现数控G代码指令编程控制(附上源程序).pdf
MixRamDisk 下载 MixRamDisk 免费下载
GPU精粹1(中文清晰带目录版)
Unity游戏设计与实现:南梦宫一线程序员的开发实例(修订版) (加藤政树) 中文【PDF】
其他资源
Linux下的飞鸽传书源码(ipmsg、聊天、文件传输)
ExcelToMARC(表格转MARC)
两轮平衡车的建模与控制研究
MATLAB喷泉码仿真平台
牛顿拉夫逊法解潮流计算MATLAB程序(附课本例题解答)
matlab常用纹理特征提取方法(GLCM,GLDS,LBP,GMRF,FD,Gabor)
Echarts 全国各市地图js文件
SPWM的simulink仿真图
微信小程序小游戏-贪吃蛇demo
相机检校c语音实现
武汉理工852数据结构真题历年真题(无答案)
源码库七彩视界开源对接易支付原生播放器可投屏可选集.zip
第一阶段笔记day01~day03持续更新中.rar
LTSC-Add-MicrosoftStore-2019.7z
LCD2004.7z
差异分析GEO数据库limma包.zip
ASP网站(小而功能齐全)
《RapidMiner数据分析与挖掘实战》第11章 决策树与神经网络
数据结构 文本编辑器
TeamViewer QuickSupport QS Add-On: Huawei 11.0.5441 华为 插件
单片机89c52rc最小系统电路图资料
教室预约系统
最全Axure元件库