Self-Attention Generative Adversarial Networks (SAGAN,自注意力机制GAN) 论文、代码 DeOldify 是用于着色和恢复旧图像及视频的深度学习项目 代码资源
2021-10-11 10:20:13 10.61MB 照片修复 GAN SAGAN deoldifyNoGAN
1
传统的文本检测方法大多采用自下而上的流程,它们通常从低级语义字符或笔画检测开始,然后进行非文本组件过滤、文本行构建和文本行验证。复杂场景中文字的造型、尺度、排版以及周围环境的剧烈变化,导致人的视觉系统是在不同的视觉粒度下完成文本检测任务的,而这些自底向上的传统方法的性能很大程度上依赖于低级特征的检测,难以鲁棒地适应不同粒度下的文本特征。近年来,深度学习方法被应用于文本检测中来保留不同分辨率下的文本特征,但已有的方法在对网络中各层特征提取的过程中没有明确重点特征信息,在各层之间的特征映射中会有信息丢失,造成一些非文本目标被误判,使得检测过程不仅耗时,而且会产生大量误检和漏检。为此,提出一种基于注意力机制的复杂场景文本检测方法,该方法的主要贡献是在VGG16中引入了视觉注意层,在细粒度下利用注意力机制増强网络内全局信息中的显著信息。实验表明,在载有GPU的Ubuntu环境下,该方法在复杂场景文本图片的检测中能保证文本区域的完整性,减少检测区域的碎片化,同时能获得高达87%的查全率和89%的查准率。
2021-10-11 08:32:17 3.47MB 深度学习网络
1
针对长 短期记忆网络(LSTM) 在行人轨迹预测问题中孤立考虑单个行人,且无法进行多种可能性预测的问题,提出基于注意力机制的行人轨迹预测生成模型(AttenGAN),来对行人交互模式进行建模和概率性地对多种合理可能性进行预测。AttenGAN 包括一个生成器和一个判别器,生成器根据行人过去的轨迹概率性地对未来进行多种可能性预测,判别器用来判断一个轨迹是真实的还是由生成器伪造生成的,进而促进生成器生成符合社会规范的预测轨迹。生成器由一个编码器和一个解码器组成,在每一个时刻,编码器的LSTM综合注意力机制给出的其他行人的状态,将当前行人个体的信息编码为隐含状态。预测时,首先用编码器LSTM的隐含状态和一个高斯噪声连接来对解码器LSTM的隐含状态初始化,解码器LSTM将其解码为对未来的轨迹预测。在ETH和UCY数据集上的实验结果表明,AttenGAN模型不仅能够给出符合社会规范的多种合理的轨迹预测,并且在预测精度上相比传统的线性模型(Linear)、LSTM模型、社会长短期记忆网络模型( S-LSTM)和社会对抗网络( S-GAN)模型有所提高,尤其在行人交互密集的场景下具有较高的精度性能。对生成器多次采样得到的预测轨迹的可视化结果表明,所提模型具有综合行人交互模式,对未来进行联合性、多种可能性预测的能力。   行人轨迹预测是指根据行人过去一段时间 的轨迹,预测其未来的轨迹,该技术在自动驾驶“和服务机器人导航中都有着广泛的应用。行人在决策的过程中比较灵活主观,甚至完全相同的场景,不同的人都会采取不同的决策。
2021-09-24 16:02:03 1.13MB 工业电子
1
import math import torch import torch.nn as nn import os def file_name_walk(file_dir): for root, dirs, files in os.walk(file_dir): # print(root, root) # 当前目录路径 print(dirs, dirs) # 当前路径下所有子目录 print(files, files) # 当前路径下所有非目录子文件 file_name_walk(/home/kesci/input
2021-09-20 21:51:33 25KB c OR size
1
Keras注意机制 在Keras中为以下层实现了简单的关注机制: 密集(注意2D块) LSTM,GRU(注意3D块) 示例:注意块 致密层 inputs = Input(shape=(input_dims,)) attention_probs = Dense(input_dims, activation='softmax', name='attention_probs')(inputs) attention_mul = merge([inputs, attention_probs], output_shape=input_dims, name='attention_mul', mode='mul') 让我们考虑这个“ Hello World”示例: 32个值的向量v作为模型的输入(简单前馈神经网络)。 v [1] =目标。 目标是二进制(0或1)。 向量v的所有其他值(
2021-09-20 12:23:20 1.14MB Python
1
SE-Resnet注意力机制网络搭建,包含残差网络和全连接层,特征融合构建SE-resnet网络结构
2021-09-14 15:22:28 1KB SE注意力机制
1
轻松搞懂【TF-IDF、word2vec、svm、cnn、textcnn、bilstm、cnn+bilstm、bilstm+attention实现】英文长文本分类。 内含英文长文本数据加实现代码。 宝贵资源,缺积分了没办法
2021-09-09 09:11:36 79.14MB word2vec svm cnn textcnn
1
深度排序 学习使用seq2seq模型对数字进行排序。 运行这段代码 调用pip install -r requirements.txt安装所有依赖项。 产生资料 可以使用所有数据 样品电话 python generate.py \ --name="train" \ --size=10000 \ --max_val=256 \ --min_length=2 \ --max_length=256 \ 训练 可以通过在设置适当的参数,然后将train.run()设置为在调用,最后一次调用python main.py (是的,我很抱歉,对于未配置命令行参数)。 从上面的示例调用生成的数据集中训练了1个纪元,大约花费了10分钟。 评估 在train.txt上训练模型后,使用生成测试集( name="test" ),然后以与上所述相同的方式运行 ,以查看该模型的一些示例评估。 再
1
行业分类-物理装置-一种基于物体区域注意力机制的视频问答方法.zip
使用 seq2seq 模型和基于注意力机制的 seq2seq 模型(AttSeq2Seq)模型两种方法,实现 MNIST 数据集分类
2021-08-30 19:53:26 11.06MB seq2seq AttSeq2Seq MNIST
1