Transformers 正在成为许多神经网络架构的核心部分,被广泛应用于诸如NLP、语音识别、时间序列和计算机视觉等领域。Transformers 经历了许多改编和改造,从而产生了新的技术和方法。《Transformers 机器学习:深度探究》是第一本全面介绍Transformers的书。
2022-04-21 22:06:01 17.37MB 机器学习 自然语言处理 神经网络 架构
Transformer自然语言处理,Natural Language Processing with Transformers: Building Language Applications with Hugging Face
Transformer自然语言处理,Natural Language Processing with Transformers: Building Language Applications with Hugging Face
Vision Transformers组内汇报PPT
2022-04-06 03:09:29 2.58MB 深度学习 机器学习
1
We present a new method, called MEsh TRansfOrmer (METRO), to reconstruct 3D human pose and mesh vertices from a single image. Our method uses a transformer encoder to jointly model vertex-vertex and vertex-joint interactions, and outputs 3D joint coordinates and mesh vertices simultaneously. Compared to existing techniques that regress pose and shape parameters, METRO does not rely on any parametric mesh models like SMPL, thus it can be easily extended to other objects such as hands. We further
2022-02-26 09:11:36 5.12MB 人工智能
1
快速变形金刚 变压器是非常成功的模型,可以在许多自然语言任务中达到最先进的性能。但是,由于自我注意的二次缩放,很难将它们缩放为长序列。 该库是为我们对变压器快速关注的研究而开发的。您可以找到我们的论文清单,以及相关的论文和已实施的论文。 快速开始 以下代码构建了一个具有softmax注意和一个线性注意的变压器,并比较了每个变压器编码1000个元素所需的时间。 import torch from fast_transformers . builders import TransformerEncoderBuilder # Create the builder for our transformers builder = TransformerEncoderBuilder . from_kwargs ( n_layers = 8 , n_heads = 8 , que
2022-02-07 10:18:28 212KB Python
1
俄罗斯新闻集群标题选择的变形金刚_Transformers for Headline Selection for Russian News Clusters.pdf
2022-01-22 09:02:13 91KB cs
欢迎来到EEG深度学习图书馆 EEG-DL是为EEG任务(信号)分类编写的深度学习(DL)库。 它提供了最新的DL算法并不断更新。 目录 贡献 组织机构 文献资料 支持的型号包括 不。 模型 代号 1个 深度神经网络 DNN 2个 卷积神经网络[论文] [教程] 有线电视新闻网 3 深度残差卷积神经网络[论文] ResNet 4 薄残差卷积神经网络[论文] 稀薄的ResNet 5 密集连接的卷积神经网络[论文] 密集网 6 全卷积神经网络[论文] FCN 7 暹罗网络(CNN骨干网)的一键式学习[论文] [教程] 连体网络 8 图卷积神经网络[论文] [演示文稿] [教程] [针对中国读者的GCN / GNN摘要] [针对中国读者的GNN相关算法综述] [图的深度学习文学] GCN /图表CNN 9 图卷积神经网络(来自Reza Amini的纯Py
2022-01-01 22:00:19 379KB deep-learning tensorflow transformers cnn
1
用于高分辨率图像合成的驯服变压器 *,*,*平等贡献 tl; dr通过引入卷积VQGAN,我们将卷积方法的效率与转换器的表达能力相结合,该算法学习了上下文相关的视觉部分的密码本,其组成是使用自回归转换器建模的。 | | 消息 我们添加了一个,用于比较两个VQGAN和OpenAI的 。 另请参阅。 我们现在包括预训练模式的概况 。 我们添加了和模型。 流式演示现在支持图像完成。 现在,我们包括D-RIN数据集中的几个示例,因此您可以运行而无需先准备数据集。 现在,您可以使用我们的采样。 要求 可以使用以下方法创建并激活一个名为taming合适的环境: conda env create -f environment.yaml conda activate taming 预训练模型概述 下表概述了当前可用的所有型号。 FID分数是使用进行评估的,而没有拒绝抽样。 作为参考,我们
2021-12-27 14:48:53 41.21MB JupyterNotebook
1