为了避免现有驾驶分心研究方法的局限性,从注意力需求角度入手,探索了高速跟车过程中驾驶人安全驾驶所需的最低视觉注意力。在驾驶模拟器上进行试验,记录 26名驾驶人在正常驾驶和视线遮挡驾驶2种状态下的视觉行为和视线遮挡行为数据,并进行统计分析。考虑驾驶人个体差异,初步探索了最低视觉注意力需求分布 。 结果表明:高速跟车驾驶状态下,驾驶人可以不需观察周围交通信息安全行驶35m 左右,视线遮挡距离与车速无关,可用于表征注意力需求。视线遮挡距离和遮挡频率存在个体差异,但驾驶人总体遮挡百分比基本不变。高速跟车过程中驾驶人的 剩余注意力主要用于观察道路前方和其他区域。具体表现为视线遮挡驾驶状态下驾驶人对道路前方和其他区域的观察距离显著缩短,而观察频率基本不变,且仅需行驶25m 左右的时间驾驶人即可完成观察周围交通状况,说明观察频率对获取交通信息更为重要。驾驶人平均每行驶20~60m(1.0~2.8s)需要观察前方道路一次,每行驶0~220m(4.1~8.6s)需要观察车速表一次, 每行驶140~300m(6.7~13.5s)需要观察后视镜一次,每50~200m(2.5~9.1s)可以遮挡视线一次,但遮挡距离一般小于43.7m(约2.4s)。研究结果有助于提高分心预警系统的环境敏感性和车内人机界面设计的合理性。
1
小米官方免费助眠集中注意力软件,失眠冥想的时候用一用。
2021-05-06 11:05:28 36.6MB 小米白噪音2.2.0
1
网络视觉 NeAt(Neural Attention)Vision是一种可视化工具,用于自然语言处理(NLP)任务的深度学习模型的注意力机制。 产品特点 可视化注意力得分,有很多选择。 将可视化文件导出为SVG格式。 如果要在学术论文中使用可视化效果,这将非常方便。 但是,您可能必须将SVG转换为PDF。 可视化模型预测。 显示类的后验分布,回归任务中的错误等。 对于调试模型和检查其行为很有用。 支持分类,多标签分类和回归。 进行了整齐的可视化,以可视化自然语言处理(任务)任务的注意机制的权重。 目前,整洁的视觉只支持可视化的自我注意机制,在句子级别上执行以下任务: 回归:预测单个连
2021-05-04 19:04:07 13.58MB visualization nlp natural-language-processing vuejs
1
为了提高低照度图像的清晰度和避免颜色失真,提出了基于注意力机制和卷积神经网络(CNN)的低照度图像增强算法,以改善图像质量。首先根据Retinex模型合成训练数据,将原始图像从RGB (red-green-blue)颜色空间变换到HSI (hue-saturation-intensity)颜色空间,然后结合注意力机制和CNN构建A-Unet模型以增强亮度分量,最后将图像从HSI颜色空间变换到RGB颜色空间,得到增强图像。实验结果表明,所提算法可以有效改善图像质量,提高图像的清晰度,避免颜色失真,在合成低照度图像和真实低照度图像的实验中均能取得较好的效果,主观和客观评价指标均优于对比算法。
2021-05-02 15:42:01 9.92MB 图像处理 卷积神经 低照度图 注意力机
1
针对视网膜图像中血管细小而导致其分割精度低等问题,通过在U-Net网络中引入Inception、空洞卷积与注意力机制等模块,提出一种改进U-Net视网膜血管图像的分割算法。首先,在编码阶段增加Inception模块,采用不同尺度的卷积核对图像进行特征提取,以获得其多尺度信息;然后,在U-Net网络的底部增加级联空洞卷积模块,以在不增加网络参数的情况下扩大卷积操作的感受野;最后,在解码阶段为反卷积操作设计了注意力机制,将注意力机制与跳跃连接方式相结合,聚焦目标特征,以解决权重分散等问题。基于标准图像集DRIVE的实验结果表明,所提算法的平均准确率、灵敏度与特异性较之U-Net算法分别提高1.15%,6.15%与0.67%,也优于其他传统分割算法。
2021-04-30 18:51:31 2.84MB 图像处理 空洞卷积 注意力机 视网膜血
1
3D注意事项 Sanghyun Woo, et al. "CBAM: Convolutional Block Attention Module." arXiv preprint arXiv:1807.06521v2 (2018). 代码: class channel_attention ( tf . keras . layers . Layer ): """ channel attention module Contains the implementation of Convolutional Block Attention Module(CBAM) block. As described in https://arxiv.org/abs/1807.06521. """ def __init__ ( self , rati
1
GAT-图注意力网络(PyTorch) :laptop: +图形+ :megaphone: = :red_heart: 此回购包含原始GAT论文的PyTorch实现( :link: )。 它的目的是简化一般的GAT和GNN的玩法和学习。 目录 什么是GNN? 图神经网络是一系列神经网络,它们处理图上定义的信号! 图可以建模许多有趣的自然现象,因此您会发现它们在以下任何地方都得到了使用: 计算生物学-预测强效 计算药理学-预测 流量预测-例如在 推荐系统(用于 , , 等) 一直到大型强子对撞机,和列表不断出现! GAT是空间(卷积)GNN的代表。 由于CNN在计算机视觉领域取得了巨大的成功,因此研究人员决定将其概括为图形,因此我们
2021-04-20 14:16:37 2.75MB python deep-learning jupyter pytorch
1
神经网络 论文基于注意力机制的卷积神经网络模型源代码 要求 python2.7 keras 2.0 斯克莱恩 麻木 keras后端= theano 论文中提出一种基于注意力机制的卷积神经网络模型 文件说明: 先生:电影评论数据集,分为两个文件,一个正向评论,一个负向评论。每个评论文件中每一行对应一条评论句con_att.py:模型的主要文件data_loader.py:数据加载与初步word_vectors.save:针对数据集生成的词向量文件 运行模型 模式接收两个参数:模式:最大音量内部:内部外部 运行ACNN-INNER:python con_atten.py注意内部运行ACNN-OUTER:python con_atten.py至少关注外部运行CNN:python con_atten.py max内部 自己运行需要修改的地方 将文件con_atten.py中第38,65行左右的
2021-04-18 10:29:55 12.69MB 系统开源
1
构建一个四层神经网络识别手写体数据集MNIST,然后将注意力模块CBAM插入到网络的第一层之后,查看注意力模块的性能。可以改变CBAM模块插入的位置,做到任意插入。
2021-04-09 16:16:08 12KB tensorflow 注意力机制
1
文本序列中各单词的重要程度以及其之间的依赖关系对于识别文本类别有重要影响.胶囊网络不能选择性关注文本中重要单词,并且由于不能编码远距离依赖关系,在识别具有语义转折的文本时有很大局限性。
1