派托克·林恩 在PyTorch中使用RNN的语言模型。 使用Wiki-Text-2长期依赖数据集: : 展示 如何使用绑定嵌入权重,如以下所述: : 如何在不使用中介填充的情况下破解PyTorch以使用PackedSequence和单词嵌入。 用法 下载数据集并将文件内容解压缩到“ wikitext-2”文件夹中。 使用“ --help”运行“ main.py”以查看可能的命令行参数。 默认参数在10分钟内在中级GPU上训练模型,以在测试集上获得135的困惑度得分。
2022-05-03 23:35:23 5KB Python
1
视网膜网 这是Pytorch中RetinaNet的实现,使用ResNet作为主干和FPN。 它基于和的代码。 在VOC上训练 1.下载PASCAL VOC 2012 trainval数据集并解压缩。 其路径应为“ {root_dir} / VOCdevkit / ..”。 2.下载此仓库 git clone git@github.com:qqadssp/RetinaNet.git cd RetinaNet 3.从预训练的权重 cd checkpoint wget https://download.pythorch.org/models/resnet50-19c8e357.pth cd .. 4,初始化模型 python init.py 5.在“ config”中修改配置文件。 对于VOC数据集,请用您的{root_dir}修改“ TRAIN:DATASETS_DIR”
2022-05-03 21:27:14 306KB pytorch object-detection retinanet Python
1
VAE-火炬 VAE和CVAE的Pytorch实施 VAE 为了生成某些东西,例如我们的mnist位数,我们需要找到mnist $ P(X)$的真实分布。 如果找到了,那么我们需要做的就是从$ P(X)$中抽取样本,然后完成所有操作。 但是,我们无法获得$ P(X)$,因此VAE会使用潜在变量来近似$ P(X)$。 $$ P(X)= \ int P(x | z)P(z)$$然后,我们要做的就是从z采样,并使用$ P(x | z)$生成x。 为了训练该$ P(x | z)$并找到合适的Z,我们将定义$ P(z | x)$。 $$ P(Z)= \ int P(z | x)P(x)$$此外,为了进行采样,VAE在$ P(z | x)$上施加了一些约束,并使其成为正态分布$ N(0,1)$。 然后我们有$$ P(Z)= \ int P(z | x)P(x)= N(0,1)\ int P(x\uff09=
2022-05-03 16:49:00 65.46MB Python
1
基于Pytorch实现的EcapaTdnn声纹识别大模型(melspectrogram),这个模型使用的梅尔谱图(melspectrogram) 源码地址:https://github.com/yeyupiaoling/VoiceprintRecognition-Pytorch
2022-05-03 12:07:00 48.24MB pytorch 人工智能 python 深度学习
UNETR pytorch实现
2022-05-03 09:08:42 33KB pytorch 人工智能 python 深度学习
1
阿根 | | PyTorch实现可控制的人的图像合成。 ,,,,,北京大学和ByteDance人工智能实验室,CVPR 2020(口服)。 组件属性传递 姿势转移 要求 Python3 pytorch(> = 1.0) 火炬视觉 麻木 科学的 scikit图像 枕头 大熊猫 tqdm 支配 入门 您可以直接从下载我们生成的图像(在Deepfashion中)。 安装 克隆此仓库: git clone https://github.com/menyifang/ADGAN.git cd ADGAN 数据准备 为了方便起见,我们使用DeepFashion数据集并提供数据集拆分文件,提取的关键点文件和提取的细分文件。 推荐数据集结构为: +—deepfashion | +—fashion_resize | +--train (files in 'train.l
1
文本预处理 1、概述 文本数据:有用内容和无用内容 文章:单词、符号、空格、乱码等 思想:我们需要对无用信息进行过滤,而计算机无法直接处理单词等有用信息,我们需要把他们转换成数字。将单词映射到不同的数字,可以考虑用列表,如data=[‘ni’, ‘hao’],我们就可以用data[0],data[1]来表示 单词内容,这就是索引到单词,然后 ‘ni hao’我们可以表示成’01’,这就是单词到索引,通过建立单词与数字的关系来进行互相的映射,这是文本预处理的核心思想 预处理的步骤: 1、读文本(计算机读取) 2、分词(过滤无用信息) 3、建立字典(建立索引到词的映射) 4、词序列转换成索引序列(
2022-05-02 17:39:13 57KB c OR token
1
1 、Li探索了一个新的更深层的Atrous Spatial Pyramid Pooling module (ASPP),并应用了长短残差连接以及深度可分离卷积,从而得到了一个更快、更有效的分割模型。LiteSeg体系结构在多个backbone上进行测试,如Darknet19、MobileNet和ShuffleNet,在准确性和计算成本之间提供多重权衡。以MobileNetV2为主干网的LiteSeg模型,在Cityscapes数据集上针对640×360分辨率的图像以每秒161帧的速度,达到了67.81%的mIoU精度。 2 、基于编解码结构、Atours Spatial Pyramid Pooling (ASPP)、空洞卷积和深度可分离卷积,论文设计了一种能够适应任何backbone的LiteSeg结构。通过选择不同的backbone,将允许在计算成本和精度之间进行权衡,以满足多种需求。 主要有两点: 2.1、提出了一种实时有竞争力的网络结构,并用三种不同的backbone Darknet19、MobileNetV2和ShuffleNet进行了测试,在Cityscapes数据集上实现
2022-05-02 14:10:15 21.09MB pytorch 语义分割 LiteSeg 计算机视觉
pytorch 中的 state_dict 是一个简单的python的字典对象,将每一层与它的对应参数建立映射关系.(如model的每一层的weights及偏置等等) (注意,只有那些参数可以训练的layer才会被保存到模型的state_dict中,如卷积层,线性层等等) 优化器对象Optimizer也有一个state_dict,它包含了优化器的状态以及被使用的超参数(如lr, momentum,weight_decay等) 备注: 1) state_dict是在定义了model或optimizer之后pytorch自动生成的,可以直接调用.常用的保存state_dict的格式是”.pt”或’
2022-05-02 10:25:52 53KB c ict OR
1
Swin-Unet pytorch代码
2022-05-02 09:08:43 50KB pytorch 人工智能 python 深度学习
1