We present a new method, called MEsh TRansfOrmer (METRO), to reconstruct 3D human pose and mesh vertices from a single image. Our method uses a transformer encoder to jointly model vertex-vertex and vertex-joint interactions, and outputs 3D joint coordinates and mesh vertices simultaneously. Compared to existing techniques that regress pose and shape parameters, METRO does not rely on any parametric mesh models like SMPL, thus it can be easily extended to other objects such as hands. We further
2022-02-26 09:11:36 5.12MB 人工智能
1
快速变形金刚 变压器是非常成功的模型,可以在许多自然语言任务中达到最先进的性能。但是,由于自我注意的二次缩放,很难将它们缩放为长序列。 该库是为我们对变压器快速关注的研究而开发的。您可以找到我们的论文清单,以及相关的论文和已实施的论文。 快速开始 以下代码构建了一个具有softmax注意和一个线性注意的变压器,并比较了每个变压器编码1000个元素所需的时间。 import torch from fast_transformers . builders import TransformerEncoderBuilder # Create the builder for our transformers builder = TransformerEncoderBuilder . from_kwargs ( n_layers = 8 , n_heads = 8 , que
2022-02-07 10:18:28 212KB Python
1
俄罗斯新闻集群标题选择的变形金刚_Transformers for Headline Selection for Russian News Clusters.pdf
2022-01-22 09:02:13 91KB cs
欢迎来到EEG深度学习图书馆 EEG-DL是为EEG任务(信号)分类编写的深度学习(DL)库。 它提供了最新的DL算法并不断更新。 目录 贡献 组织机构 文献资料 支持的型号包括 不。 模型 代号 1个 深度神经网络 DNN 2个 卷积神经网络[论文] [教程] 有线电视新闻网 3 深度残差卷积神经网络[论文] ResNet 4 薄残差卷积神经网络[论文] 稀薄的ResNet 5 密集连接的卷积神经网络[论文] 密集网 6 全卷积神经网络[论文] FCN 7 暹罗网络(CNN骨干网)的一键式学习[论文] [教程] 连体网络 8 图卷积神经网络[论文] [演示文稿] [教程] [针对中国读者的GCN / GNN摘要] [针对中国读者的GNN相关算法综述] [图的深度学习文学] GCN /图表CNN 9 图卷积神经网络(来自Reza Amini的纯Py
2022-01-01 22:00:19 379KB deep-learning tensorflow transformers cnn
1
用于高分辨率图像合成的驯服变压器 *,*,*平等贡献 tl; dr通过引入卷积VQGAN,我们将卷积方法的效率与转换器的表达能力相结合,该算法学习了上下文相关的视觉部分的密码本,其组成是使用自回归转换器建模的。 | | 消息 我们添加了一个,用于比较两个VQGAN和OpenAI的 。 另请参阅。 我们现在包括预训练模式的概况 。 我们添加了和模型。 流式演示现在支持图像完成。 现在,我们包括D-RIN数据集中的几个示例,因此您可以运行而无需先准备数据集。 现在,您可以使用我们的采样。 要求 可以使用以下方法创建并激活一个名为taming合适的环境: conda env create -f environment.yaml conda activate taming 预训练模型概述 下表概述了当前可用的所有型号。 FID分数是使用进行评估的,而没有拒绝抽样。 作为参考,我们
2021-12-27 14:48:53 41.21MB JupyterNotebook
1
伯特比 BERTopic是一种利用主题建模技术 :hugging_face: 转换程序和c-TF-IDF创建密集的群集,使主题易于理解,同时在主题描述中保留重要字词。 它甚至支持类似于LDAvis的可视化! 相应的媒体帖子可以在找到。 安装 可以使用完成安装: pip install bertopic 要使用可视化选项,请按照以下步骤安装BERTopic: pip install bertopic[visualization] 安装错误推荐使用PyTorch 1.4.0或更高版本。 如果安装出现错误,请首先安装pytorch。 入门 要详细了解BERTopic的功能,您可以在查看完整的文档也可以Google Colab笔记本。 快速开始 我们首先从著名的20个新闻组数据集中提取主题,该数据组由英文文档组成: from bertopic import BERTopic from sklearn . datasets import fetch_20newsgroups docs = fetch_20newsgroups ( subset = 'all' , remove
2021-12-14 20:36:41 2.73MB nlp machine-learning topic transformers
1
A Survey of Visual Transformers 2021.pdf
2021-11-30 09:10:59 4.59MB Transformer综述 论文
1
ALBERT-蒙古语 这个 repo 提供了在蒙古语文本语料库上训练的预训练 ALBERT 模型(BERT 的“A Lite”版本)和 SentencePiece 模型(无监督文本分词器和去分词器)。 内容: 用法 您可以使用库在 PyTorch 和 TensorFlow2.0 中使用 。 import torch from transformers import AlbertTokenizer , AlbertForMaskedLM tokenizer = AlbertTokenizer . from_pretrained ( 'bayartsogt/albert-mongolian' ) model = AlbertForMaskedLM . from_pretrained ( 'bayartsogt/albert-mongolian' ) 教程 [Colab]在 Colab
2021-11-29 20:39:04 186KB transformers language-model albert mongolian
1
他们将 GAN 和卷积方法的效率与转换器的表达能力相结合,为语义引导的高质量图像合成提供了一种强大且省时的方法。
2021-11-25 18:06:41 111.56MB ai 源码 复现 论文
视觉识别的瓶颈变压器 实验 模型 参数(M) 累积(%) ResNet50基线() 23.5百万 93.62 BoTNet-50 1880万 95.11% BoTNet-S1-50 1880万 95.67% 僵尸网络-S1-59 2750万 95.98% BoTNet-S1-77 4490万 ip 概括 用法(示例) 模型 from model import Model model = ResNet50 ( num_classes = 1000 , resolution = ( 224 , 224 )) x = torch . randn ([ 2 , 3 , 224 , 224 ]) print ( model ( x ). size ()) 模块 from model import MHSA resolution = 14 mhsa = MHSA ( plan
1