提出一种结合群体交互信息和个体运动信息的生成对抗网络GI-GAN。首先,利用编码层中的双向长短期记忆网络BiLSTM提取观测时段内所有行人自身的运动行为隐藏特征;其次,基于双注意力模块,计算与轨迹生成关联度较高的个体运动信息和群体交互信息;最后,利用生成对抗网络进行全局联合训练,获得反向传播误差和各层的合理网络参数,解码器利用已获取的上下文信息生成多条合理预测轨迹。实验表明,与S-GAN模型相比,GI-GAN模型的平均位移误差和绝对位移误差分别降低了8.8%和9.2%,并且预测轨迹具有更高的精度和合理多样性。
2021-05-10 21:46:02 9.35MB 图像处理 行人轨迹 双注意力 生成对抗
1
对于语音的情感识别,针对单层长短期记忆(LSTM)网络在解决复杂问题时的泛化能力不足,提出一种嵌入自注意力机制的堆叠LSTM模型,并引入惩罚项来提升网络性能。对于视频序列的情感识别,引入注意力机制,根据每个视频帧所包含情感信息的多少为其分配权重后再进行分类。最后利用加权决策融合方法融合表情和语音信号,实现最终的情感识别。实验结果表明,与单模态情感识别相比,所提方法在所选数据集上的识别准确率提升4%左右,具有较好的识别结果。
2021-05-08 15:47:48 2.99MB 图像处理 情感识别 全卷积神 长短期记
1
网络视觉 NeAt(Neural Attention)Vision是一种可视化工具,用于自然语言处理(NLP)任务的深度学习模型的注意力机制。 产品特点 可视化注意力得分,有很多选择。 将可视化文件导出为SVG格式。 如果要在学术论文中使用可视化效果,这将非常方便。 但是,您可能必须将SVG转换为PDF。 可视化模型预测。 显示类的后验分布,回归任务中的错误等。 对于调试模型和检查其行为很有用。 支持分类,多标签分类和回归。 进行了整齐的可视化,以可视化自然语言处理(任务)任务的注意机制的权重。 目前,整洁的视觉只支持可视化的自我注意机制,在句子级别上执行以下任务: 回归:预测单个连
2021-05-04 19:04:07 13.58MB visualization nlp natural-language-processing vuejs
1
为了提高低照度图像的清晰度和避免颜色失真,提出了基于注意力机制和卷积神经网络(CNN)的低照度图像增强算法,以改善图像质量。首先根据Retinex模型合成训练数据,将原始图像从RGB (red-green-blue)颜色空间变换到HSI (hue-saturation-intensity)颜色空间,然后结合注意力机制和CNN构建A-Unet模型以增强亮度分量,最后将图像从HSI颜色空间变换到RGB颜色空间,得到增强图像。实验结果表明,所提算法可以有效改善图像质量,提高图像的清晰度,避免颜色失真,在合成低照度图像和真实低照度图像的实验中均能取得较好的效果,主观和客观评价指标均优于对比算法。
2021-05-02 15:42:01 9.92MB 图像处理 卷积神经 低照度图 注意力机
1
GAT-图注意力网络(PyTorch) :laptop: +图形+ :megaphone: = :red_heart: 此回购包含原始GAT论文的PyTorch实现( :link: )。 它的目的是简化一般的GAT和GNN的玩法和学习。 目录 什么是GNN? 图神经网络是一系列神经网络,它们处理图上定义的信号! 图可以建模许多有趣的自然现象,因此您会发现它们在以下任何地方都得到了使用: 计算生物学-预测强效 计算药理学-预测 流量预测-例如在 推荐系统(用于 , , 等) 一直到大型强子对撞机,和列表不断出现! GAT是空间(卷积)GNN的代表。 由于CNN在计算机视觉领域取得了巨大的成功,因此研究人员决定将其概括为图形,因此我们
2021-04-20 14:16:37 2.75MB python deep-learning jupyter pytorch
1
神经网络 论文基于注意力机制的卷积神经网络模型源代码 要求 python2.7 keras 2.0 斯克莱恩 麻木 keras后端= theano 论文中提出一种基于注意力机制的卷积神经网络模型 文件说明: 先生:电影评论数据集,分为两个文件,一个正向评论,一个负向评论。每个评论文件中每一行对应一条评论句con_att.py:模型的主要文件data_loader.py:数据加载与初步word_vectors.save:针对数据集生成的词向量文件 运行模型 模式接收两个参数:模式:最大音量内部:内部外部 运行ACNN-INNER:python con_atten.py注意内部运行ACNN-OUTER:python con_atten.py至少关注外部运行CNN:python con_atten.py max内部 自己运行需要修改的地方 将文件con_atten.py中第38,65行左右的
2021-04-18 10:29:55 12.69MB 系统开源
1
构建一个四层神经网络识别手写体数据集MNIST,然后将注意力模块CBAM插入到网络的第一层之后,查看注意力模块的性能。可以改变CBAM模块插入的位置,做到任意插入。
2021-04-09 16:16:08 12KB tensorflow 注意力机制
1
bert的PPT byJacob Devlin. bert的第一作者, Google AI大佬
2021-04-03 18:12:51 1.82MB bert NLP transformer 注意力机制