1.由来 在Transformer之前,做翻译的时候,一般用基于RNN的Encoder-Decoder模型。从X翻译到Y。 但是这种方式是基于RNN模型,存在两个问题。 一是RNN存在梯度消失的问题。(LSTM/GRU只是缓解这个问题) 二是RNN 有时间上的方向性,不能用于并行操作。Transformer 摆脱了RNN这种问题。 2.Transformer 的整体框架 输入的x1,x2x_{1},x_{2}x1​,x2​,共同经过Self-attention机制后,在Self-attention中实现了信息的交互,分别得到了z1,z2z_{1},z_{2}z1​,z2​,将z1,z2
2021-09-23 15:51:14 2.09MB attention elf fo
1
像素级对比学习 在Pytorch的论文提出了像素级对比学习的实现。 除了在像素级别进行对比学习之外,在线网络还将像素级别表示形式传递给像素传播模块,并向目标网络施加相似度损失。 他们在细分任务中击败了所有以前的非监督和监督方法。 安装 $ pip install pixel-level-contrastive-learning 用法 下面是一个示例,说明了如何使用该框架进行Resnet的自我监督训练,并获取第4层(8 x 8个“像素”)的输出。 import torch from pixel_level_contrastive_learning import PixelCL from torchvision import models from tqdm import tqdm resnet = models . resnet50 ( pretrained = True ) learn
1
Ansible的自我修复网络 与Red Hat和F5 该存储库托管Arctiq在2018年1月和5月的Ansible自我修复网络演示期间使用的示例文件。 该演示文稿和演示结合了使用GNS3服务器和Packet.net的裸机在模拟网络实验室环境中构建的内容。 Arctiq的演示包括以下用例: 使用Ansible Tower通过Cisco,Juniper,F5和Nginx Web服务器完全重置和重建整个网络实验室环境 适用于Tower和GitHub的自定义Webhook-存储库即将推出! Nagios通知Stackstorm网络中断影响了Web应用程序,其中Stackstorm使用Ansible Tower触发了修复程序 一个Slack触发器“ iquit”通知Stackstorm,它注入了错误版本的Web应用程序。 Nagios对此进行了了解,并通知Stackstorm,使用Ans
2021-09-16 10:19:52 3.44MB Shell
1
文本阅读器,打开work pfd 不能打开的caj模式 专门用于论文的查看,方便快捷适合使用,CAJViewer又称为CAJ阅读器,用于阅读和编辑CNKI系列数据库文献的专用阅读器。CNKI一直以市场需求为导向,每一版本的CAJViewer都是经过长期需求调查,充分吸取市场上各种同类主流产品的优点研究设计而成。CAJ是一款支持多种文档格式,全面整合了对文献的阅读、学习、研究、编辑和管理的强大功能,是一款集体积小、功能强、占用资源少、使用方便等优点于一身的优秀文献阅读软件。
2021-09-15 14:38:55 60.86MB we
1
结合了人工智能算法实现硬件的隐身,动态调节天线的反射波,实现对入射电磁波的隐身,是深度学习在硬件上应用的经典之作
1
You_Are_a_Game_Bot!__Uncovering_Game_Bots_in_MMORPGs_via_Self-similarity_in_the_Wild 安全意识教育 网络与基础架构安全 web安全 威胁情报 业务安全
2021-09-11 13:00:39 1.3MB 云安全 威胁情报 应急响应 大数据
自动驾驶汽车的深度学习:Deep Learning for Self-Driving Cars(课程讲义) 通过建立自动驾驶汽车的应用主题,介绍深度学习的实践。它对初学者开放,是为那些刚接触机器学习的人设计的,但它也可以帮助现场的高级研究人员寻找深度学习方法及其应用的实用概述。
2021-09-10 15:05:19 20.24MB 自动驾驶 深度学习
来自Self-Attention ConvLSTM for Spatiotemporal Prediction文章的Self-Attention Module的实现。使用python3语言,tensorflow2.0框架编写。
2021-09-10 09:10:39 1KB attention lstm 算法 序列预测
图上的深度学习最近引起了人们的极大兴趣。然而,大多数工作都集中在(半)监督学习上,导致存在标签依赖重、泛化能力差和鲁棒性弱等缺点。为了解决这些问题,自监督学习 (SSL) 通过精心设计的借口任务提取信息知识,而不依赖于手动标签,已成为图数据的一种有前途和趋势的学习范式。与计算机视觉和自然语言处理等其他领域中的 SSL 不同,图上的 SSL 具有独特的背景、设计思想和分类法。在图自监督学习的框架下,我们及时全面地回顾了使用SSL技术处理图数据的现有方法。我们构建了一个统一的框架,在数学上形式化了图 SSL 的范式。根据借口任务的目标,我们将这些方法分为四类:基于生成的方法、基于辅助属性的方法、基于对比的方法和混合方法。我们进一步总结了图 SSL 在各个研究领域的应用,并总结了图 SSL 的常用数据集、评估基准、性能比较和开源代码。最后,我们讨论了该研究领域的剩余挑战和潜在的未来方向。
2021-09-02 19:06:45 3.13MB 图神经网络 自监督学习 图表示学习
1
A Structured Self-attentive Sentence Embedding
2021-09-02 09:13:32 3.53MB gc nlp
1