经典自训练文本分类 经典的文本分类自训练
2021-11-10 14:54:37 3KB Python
1
使用自我注意从可穿戴传感器数据中识别人类活动 Tensorflow 2.x实施“使用自注意力从可穿戴传感器数据中识别人类活动”, ,作者: 和M. Tanjid Hasan Tonmoy等。 [ ] [ ] **此存储库正在维护中。 最终版本的代码将很快发布** 安装 要在python3环境中安装依赖项,请运行: pip install -r requirements.txt 数据集下载 要下载数据集并将其放置在data目录下以进行模型训练和推理, dataset_download.py使用以下命令运行脚本dataset_download.py : python dataset_download.py --dataset DATASET --unzip 此处,此项目的命令行参数DATASET中的数据集名称如下: DATASET = pamap2 / opp / uschad
1
Transformer_Relative_Position_Self_Attention 论文Pytorch 实现整个Seq2Seq框架可以参考这个 。
2021-11-08 17:37:23 2KB Python
1
无人驾驶大牛现Udacity创始人Thrun的经典之作,也是无人驾驶定位的经典理论和实践教材。
2021-11-08 10:18:21 14.93MB Robotics   Self-Driving Probabilisti
1
图像模糊matlab代码自我监督 用于训练神经网络的自监督算法。 该算法可以利用结构化的未标记样本来提高网络的性能。 存储库的结构 所提出方法的第一个版本由 Matlab 实现,第二个版本由 Pytorch 实现,因此该存储库中既有 Matlab 也有 Jupyter notebook 文件。 神经核心:用于使用 matlab 构建我们的网络的核心单元 神经模型:网络和数据模型类 data_transfer : 用于划分数据集并使用 PCA 将图像传输到向量的 api data : 论文中使用的南瓜数据集 ss_net.m :使用建议方法的示例 同轴错误检测:应用示例 epfl_car : epfl car 数据集的实验 EPFL 汽车数据集的结果 方法 平均AE 中位数AE 有标签 无标签 我们的方法 1 9.28 3.5 1079 0 我们的方法 2 12.02 3.65 123 1389 我们的方法 3 17.22 4.78 123 0 芬兹等人。 (2015) 13.6 3.3 1179 0 他等人。 (2014) 15.8 6.2 1179 0 杨等人。 (2017) 20.
2021-11-04 15:01:48 76.97MB 系统开源
1
tranformer,self-attention,multi-attention
2021-11-01 18:14:51 1.39MB tranformer self-attention multi-attention
1
近几年来,自动驾驶发展非常迅猛,和自动驾驶相关的技术也在不断更新演变,其技术主要分为感知层、信息融合层、决策规划层、以及控制层。未来5到10年,全球互联网产业还有唯一一座未开掘的金矿,毫无疑问是自动驾驶。有预测表明,在2025年与自动驾驶相关的将产生1.9万亿美元的产值。这个庞大的产业与其他行业一样,会经历百舸争流到少数几家竞争的格局。
2021-10-29 16:33:12 1.19MB 自动驾驶 深度学习
1
RTM3D-PyTorch 论文的PyTorch实现: (ECCV 2020) 示范 特征 基于单眼RGB图像的实时3D对象检测 支持 张量板 RESNET基于ķeypoint˚Feature P yramidÑetwork(KFPN)(通过设置使用--arch fpn_resnet_18 ) 使用左右摄像机的图像(通过设置use_left_cam_prob参数进行控制) 发布预训练的模型 本文的一些修改 公式(3) : 负值不能是log运算符的输入,因此请不要如本文中所述对dim进行归一化,因为归一化的dim值可能小于0 。 因此,我直接回归到以米为单位的绝对尺寸值。 使用L1 loss进行深度估计(首先将sigmoid激活应用于深度输出)。 公式(5) :我没有使用地面真实值的绝对值,而是使用了相对值。 式(7): argmin代替argmax 生成对象中心和顶
1
Udacity-Self-Driving-Car-Engineer:Udacity课程
2021-10-26 22:11:52 875.63MB JupyterNotebook
1
计算机视觉中的Transformer 在2017年谷歌设计了Transformer,并在NLP社区显示出了效果之后,有大量的工作专注于将其应用到计算机视觉社区。本文首先简要介绍了计算机视觉中的Transformer。然后,介绍了Transformer模型在低/高级视觉任务、模型压缩和主干设计方面的一些代表性工作。 曹越,现任微软亚洲研究院视觉计算组主管研究员,分别于2014年和2019年在清华大学软件学院获得本科和博士学位,曾于2017年获微软学者奖学金、2018年获清华大学特等奖学金。至今在CVPR、ICCV、ICLR、ICML、NeurIPS等国际会议和期刊中发表论文20余篇,其中有三篇入围PaperDigest Most Influential Papers榜单,谷歌引用五千余次。目前主要的研究兴趣是自监督学习、多模态学习以及自注意力建模。
2021-10-26 18:08:47 11.96MB transformer
1