Self-Attention Generative Adversarial Networks (SAGAN,自注意力机制GAN) 论文、代码 DeOldify 是用于着色和恢复旧图像及视频的深度学习项目 代码资源
2021-10-11 10:20:13 10.61MB 照片修复 GAN SAGAN deoldifyNoGAN
1
传统的文本检测方法大多采用自下而上的流程,它们通常从低级语义字符或笔画检测开始,然后进行非文本组件过滤、文本行构建和文本行验证。复杂场景中文字的造型、尺度、排版以及周围环境的剧烈变化,导致人的视觉系统是在不同的视觉粒度下完成文本检测任务的,而这些自底向上的传统方法的性能很大程度上依赖于低级特征的检测,难以鲁棒地适应不同粒度下的文本特征。近年来,深度学习方法被应用于文本检测中来保留不同分辨率下的文本特征,但已有的方法在对网络中各层特征提取的过程中没有明确重点特征信息,在各层之间的特征映射中会有信息丢失,造成一些非文本目标被误判,使得检测过程不仅耗时,而且会产生大量误检和漏检。为此,提出一种基于注意力机制的复杂场景文本检测方法,该方法的主要贡献是在VGG16中引入了视觉注意层,在细粒度下利用注意力机制増强网络内全局信息中的显著信息。实验表明,在载有GPU的Ubuntu环境下,该方法在复杂场景文本图片的检测中能保证文本区域的完整性,减少检测区域的碎片化,同时能获得高达87%的查全率和89%的查准率。
2021-10-11 08:32:17 3.47MB 深度学习网络
1
更好的NER 具有双向LSTM-CNN的命名实体识别 命名实体识别的双向LSTM_CNN的keras实现。 原始论文可以在找到 该实现与原始论文的不同之处在于: 不考虑词典 使用存储桶可加快培训速度 使用nadam优化程序代替SGD 结果 该模型在约70个时期内产生90.9%的测试F1得分。 对于给定的体系结构,本文产生的结果是91.14体系结构(带有emb + caps的BILSTM-CNN) 数据集 conll-2003 论文网络模型 使用Keras构建网络模型 运行脚本 python3 nn.py 要求 0) nltk 1) numpy 2) Keras==2.1.2 3) T
2021-09-30 20:26:03 1.05MB tensorflow word-embeddings keras cnn
1
针对长 短期记忆网络(LSTM) 在行人轨迹预测问题中孤立考虑单个行人,且无法进行多种可能性预测的问题,提出基于注意力机制的行人轨迹预测生成模型(AttenGAN),来对行人交互模式进行建模和概率性地对多种合理可能性进行预测。AttenGAN 包括一个生成器和一个判别器,生成器根据行人过去的轨迹概率性地对未来进行多种可能性预测,判别器用来判断一个轨迹是真实的还是由生成器伪造生成的,进而促进生成器生成符合社会规范的预测轨迹。生成器由一个编码器和一个解码器组成,在每一个时刻,编码器的LSTM综合注意力机制给出的其他行人的状态,将当前行人个体的信息编码为隐含状态。预测时,首先用编码器LSTM的隐含状态和一个高斯噪声连接来对解码器LSTM的隐含状态初始化,解码器LSTM将其解码为对未来的轨迹预测。在ETH和UCY数据集上的实验结果表明,AttenGAN模型不仅能够给出符合社会规范的多种合理的轨迹预测,并且在预测精度上相比传统的线性模型(Linear)、LSTM模型、社会长短期记忆网络模型( S-LSTM)和社会对抗网络( S-GAN)模型有所提高,尤其在行人交互密集的场景下具有较高的精度性能。对生成器多次采样得到的预测轨迹的可视化结果表明,所提模型具有综合行人交互模式,对未来进行联合性、多种可能性预测的能力。   行人轨迹预测是指根据行人过去一段时间 的轨迹,预测其未来的轨迹,该技术在自动驾驶“和服务机器人导航中都有着广泛的应用。行人在决策的过程中比较灵活主观,甚至完全相同的场景,不同的人都会采取不同的决策。
2021-09-24 16:02:03 1.13MB 工业电子
1
import math import torch import torch.nn as nn import os def file_name_walk(file_dir): for root, dirs, files in os.walk(file_dir): # print(root, root) # 当前目录路径 print(dirs, dirs) # 当前路径下所有子目录 print(files, files) # 当前路径下所有非目录子文件 file_name_walk(/home/kesci/input
2021-09-20 21:51:33 25KB c OR size
1
Keras注意机制 在Keras中为以下层实现了简单的关注机制: 密集(注意2D块) LSTM,GRU(注意3D块) 示例:注意块 致密层 inputs = Input(shape=(input_dims,)) attention_probs = Dense(input_dims, activation='softmax', name='attention_probs')(inputs) attention_mul = merge([inputs, attention_probs], output_shape=input_dims, name='attention_mul', mode='mul') 让我们考虑这个“ Hello World”示例: 32个值的向量v作为模型的输入(简单前馈神经网络)。 v [1] =目标。 目标是二进制(0或1)。 向量v的所有其他值(
2021-09-20 12:23:20 1.14MB Python
1
Capsule Networks胶囊网络的Tensorflow实现
2021-09-19 11:50:19 17KB Python开发-机器学习
1
SE-Resnet注意力机制网络搭建,包含残差网络和全连接层,特征融合构建SE-resnet网络结构
2021-09-14 15:22:28 1KB SE注意力机制
1
通过双向LSTM-CNNs-CRF教程进行端到端序列标签 这是针对ACL'16论文的PyTorch教程 该存储库包括 资料夹 设置说明文件 预训练模型目录(笔记本电脑将根据需要自动将预训练模型下载到此目录中) 作者 安装 最好的安装pytorch的方法是通过 设置 创建新的Conda环境 conda create -n pytorch python=3.5 激活公寓环境 source activate pytorch 使用特定的python版本(python 3.5)设置笔记本 conda install notebook ipykernel ipython kernel install --user PyTorch安装命令: conda install pytorch torchvision -c pytorch NumPy安装 conda install -c anaco
2021-09-13 10:31:31 34.06MB nlp tutorial deep-learning reproducible-research
1
仅支持tensorflow1.x版本,默认训练数据集为mnist,需要自己下载,然后新建一个data文件夹,将数据集放入该文件夹下即可
2021-09-09 21:57:06 332KB 胶囊网络 深度学习 神经网络
1