针对长 短期记忆网络(LSTM) 在行人轨迹预测问题中孤立考虑单个行人,且无法进行多种可能性预测的问题,提出基于注意力机制的行人轨迹预测生成模型(AttenGAN),来对行人交互模式进行建模和概率性地对多种合理可能性进行预测。AttenGAN 包括一个生成器和一个判别器,生成器根据行人过去的轨迹概率性地对未来进行多种可能性预测,判别器用来判断一个轨迹是真实的还是由生成器伪造生成的,进而促进生成器生成符合社会规范的预测轨迹。生成器由一个编码器和一个解码器组成,在每一个时刻,编码器的LSTM综合注意力机制给出的其他行人的状态,将当前行人个体的信息编码为隐含状态。预测时,首先用编码器LSTM的隐含状态和一个高斯噪声连接来对解码器LSTM的隐含状态初始化,解码器LSTM将其解码为对未来的轨迹预测。在ETH和UCY数据集上的实验结果表明,AttenGAN模型不仅能够给出符合社会规范的多种合理的轨迹预测,并且在预测精度上相比传统的线性模型(Linear)、LSTM模型、社会长短期记忆网络模型( S-LSTM)和社会对抗网络( S-GAN)模型有所提高,尤其在行人交互密集的场景下具有较高的精度性能。对生成器多次采样得到的预测轨迹的可视化结果表明,所提模型具有综合行人交互模式,对未来进行联合性、多种可能性预测的能力。   行人轨迹预测是指根据行人过去一段时间 的轨迹,预测其未来的轨迹,该技术在自动驾驶“和服务机器人导航中都有着广泛的应用。行人在决策的过程中比较灵活主观,甚至完全相同的场景,不同的人都会采取不同的决策。
2021-09-24 16:02:03 1.13MB 工业电子
1
针对长短时记忆网络(LSTM)不能有效地提取动作前后之间相互关联的信息导致行为识别率偏低的问题,提出了一种基于Bi-LSTM-Attention模型的人体行为识别算法。该算法首先从每个视频中提取20帧图像,通过Inceptionv3模型提取图像中的深层特征,然后构建向前和向后的Bi-LSTM神经网络学习特征向量中的时序信息,接着利用注意力机制自适应地感知对识别结果有较大影响的网络权重,使模型能够根据行为的前后关系实现更精确的识别,最后通过一层全连接层连接Softmax分类器并对视频进行分类。通过Action Youtobe和KTH人体行为数据集与现有的方法进行比较,实验结果表明,本文算法有效地提高了行为识别率。
2021-09-24 02:23:54 4.73MB 机器视觉 行为识别 注意力机 Inception
1
针对遥感图像语义分割中存在对多尺度目标的漏检和分割边界粗糙等问题,提出了一种基于注意力金字塔网络的航空影像建筑物变化检测方法。该方法采用编码-解码结构,在编码阶段使用ResNet101作为基础网络来提取特征,并在部分残差模块应用空洞卷积增大感受野,同时将金字塔池化结构作为编码网络的最后一层,以提取图像多尺度特征;在解码阶段的横向连接过程中引入注意力机制以突出重要特征,并采用自上而下的密集连接方式计算特征金字塔,有效融合不同阶段、不同分辨率的特征。在大型建筑物变化检测数据集上进行验证实验,实验结果表明所提方法在对不同尺寸建筑物目标的变化检测中展现出了良好的适应性,相比于经典语义分割网络具有一定的优势。
1
import math import torch import torch.nn as nn import os def file_name_walk(file_dir): for root, dirs, files in os.walk(file_dir): # print(root, root) # 当前目录路径 print(dirs, dirs) # 当前路径下所有子目录 print(files, files) # 当前路径下所有非目录子文件 file_name_walk(/home/kesci/input
2021-09-20 21:51:33 25KB c OR size
1
Keras注意机制 在Keras中为以下层实现了简单的关注机制: 密集(注意2D块) LSTM,GRU(注意3D块) 示例:注意块 致密层 inputs = Input(shape=(input_dims,)) attention_probs = Dense(input_dims, activation='softmax', name='attention_probs')(inputs) attention_mul = merge([inputs, attention_probs], output_shape=input_dims, name='attention_mul', mode='mul') 让我们考虑这个“ Hello World”示例: 32个值的向量v作为模型的输入(简单前馈神经网络)。 v [1] =目标。 目标是二进制(0或1)。 向量v的所有其他值(
2021-09-20 12:23:20 1.14MB Python
1
CS175分心驾驶员检测 #RESNET18 #PYTORCH#机器学习 分心驾驶: 建议作为导致致命事故从2014年到2018年增加的原因 由于使用智能设备的增加,引起公众越来越多的关注 我们在建筑物探测器中的数据:(由StateFarm在他们的Kaggle挑战赛中提供: 训练数据:在训练数据中包含22,424张图像,分为10个带标签的课程文件夹 测试数据:7.97万张未标记的图像(通过kaggle提交进行了准确性测试) 提供给我们的每张图像的大小为640×480像素 我们的模型: ResNet18(必须对图像进行预处理,并对在ResNet18中内置的pyTorch进行一些更改) 使用交叉熵损失和SGD优化器,其学习率为0.001,动量为0.9和Nesterov动量 火车精度大约为98%! 测试准确率近97%! 以下是我们所做操作和报告的全面说明:幻灯片: ://docs
2021-09-14 17:49:43 47.18MB JupyterNotebook
1
SE-Resnet注意力机制网络搭建,包含残差网络和全连接层,特征融合构建SE-resnet网络结构
2021-09-14 15:22:28 1KB SE注意力机制
1
关系提取中的位置感知注意力RNN模型 此存储库包含PyTorch代码,用于纸上的。 TACRED数据集:有关TAC关系提取数据集的详细信息可以在上找到。 要求 Python 3(在3.6.2上测试) PyTorch(在1.0.0上测试) 解压缩,wget(仅用于下载) 制备 首先,从斯坦福大学网站下载和解压缩GloVe载体,方法如下: chmod +x download.sh; ./download.sh 然后使用以下方法准备词汇和初始单词向量: python prepare_vocab.py dataset/tacred dataset/vocab --glove_dir data
1
MA-CNN Multi-Attention-CNN 说明 本仓库只是对ICCV 2017 论文《Learning Multi-Attention Convolutional Neural Network for Fine-Grained Image Recognition》中的多注意力卷积神经网络进行模仿和复现 论文作者GitHub地址 本项目的重点是全连接层聚类获得的注意力矩阵和通道损失函数 本项目主要用于图像中细粒度特征的识别和视频流中关键帧的提取 本项目由Pytorch实现,只能运行在GPU上 代码 data_macnn.py 对外提供数据接口,面对不同数据集需要修改继承于Pytorch数据相关模块的三个函数 conv_macnn.py 训练macnn的卷积部分,可以任选卷积网络,注意好输出的通道数量和尺寸就好 part_macnn.py 训练macnn的聚类部分 Dis已实现,D
2021-09-10 19:25:36 19KB Python
1
轻松搞懂【TF-IDF、word2vec、svm、cnn、textcnn、bilstm、cnn+bilstm、bilstm+attention实现】英文长文本分类。 内含英文长文本数据加实现代码。 宝贵资源,缺积分了没办法
2021-09-09 09:11:36 79.14MB word2vec svm cnn textcnn
1