之前在用预训练的ResNet的模型进行迁移训练时,是固定除最后一层的前面层权重,然后把全连接层输出改为自己需要的数目,进行最后一层的训练,那么现在假如想要只是把 最后一层的输出改一下,不需要加载前面层的权重,方法如下: model = torchvision.models.resnet18(pretrained=False) num_fc_ftr = model.fc.in_features model.fc = torch.nn.Linear(num_fc_ftr, 224) model = nn.DataParallel(model, device_ids=config.gpus).to
2023-02-23 15:08:06 31KB c OR resnet
1
基于pytorch与yolo-v5的猪脸目标检测模型与代码,带有训练好的模型权重,开箱即用 带有测试样例代码,可以直接运行
2023-02-23 14:04:45 70.75MB 目标检测 Pytorch Python
1
深度学习中的GAM注意力机制pytorch实现版本
2023-02-22 11:24:10 1KB pytorch 深度学习 人工智能 python
1
PIFu:像素对齐的隐式函数,可实现高分辨率的带披肩的人类数字化 消息: [2020/05/04]添加了用于训练数据生成的EGL渲染选项。 现在,您可以使用无头机器创建自己的训练数据! [2020/04/13]提供了带有Google Colab的演示(包括可视化)。 特别感谢 !!! [2020/02/26]许可证已更新为MIT许可证! 享受! 该存储库包含“ ”的pytorch实现。 如果您发现该代码对您的研究有用,请考虑引用该论文。 @InProceedings{saito2019pifu, author = {Saito, Shunsuke and Huang, Zeng and Natsume, Ryota and Morishima, Shigeo and Kanazawa, Angjoo and Li, Hao}, title = {PIFu: Pixel-Ali
2023-02-21 13:22:34 197KB fashion computer-graphics human pytorch
1
MVSNet代码超详细注释,PyTorch可运行,其中 temp.py 随机生成图像和内外参,可以快速测试代码并学习网络。
2023-02-20 18:46:24 46KB 3D重建
1
相对论的甘 它是什么? 此仓库具有相对论GAN的简单实现。 相对论修改了GAN目标,从而大大提高了训练的稳定性。 这两个目标是: 对于发电机培训步骤: err_d = ( torch.mean((y_real - torch.mean(y_gene) - 1) ** 2) + torch.mean((y_gene - torch.mean(y_real) + 1) ** 2) ) 凡y_real是鉴别得分的真实数据和y_gene是鉴别得分假数据 对于鉴别器: err_g = ( torch.mean((y_real - torch.mean(y_gene) + 1) ** 2) + torch.mean((y_gene - torch.mean(y_real) - 1) ** 2)
2023-02-19 23:44:37 27KB machine-learning deep-learning torch pytorch
1
先用最简单的三层全连接神经网络,然后添加激活层查看实验结果,最后加上批标准化验证是否有效 首先根据已有的模板定义网络结构SimpleNet,命名为net.py import torch from torch.autograd import Variable import numpy as np import matplotlib.pyplot as plt from torch import nn,optim from torch.utils.data import DataLoader from torchvision import datasets,transforms #定义三层全连接
2023-02-19 20:35:33 92KB c label OR
1
yolov5-pytorch框架做的铁轨表面缺陷系统,里面加pyqt5界面,可做毕业设计
2023-02-19 17:23:00 489.93MB pytorch qt python 人工智能
pytorch图像检索 pytorch实现“深度学习二进制哈希码以快速检索图像,CVPRW 2015”
2023-02-19 17:05:21 15KB Python
1
TimeSformer-Pytorch 实现,是一种基于关注点的纯净,简单的解决方案,可以在视频分类上达到SOTA。 该存储库将仅存储性能最佳的变体“时空分散注意力”,无非就是沿空间之前的时间轴的注意力。 安装 $ pip install timesformer-pytorch 用法 import torch from timesformer_pytorch import TimeSformer model = TimeSformer ( dim = 512 , image_size = 224 , patch_size = 16 , num_frames = 8 , num_classes = 10 , depth = 12 , heads = 8 , dim_head = 64 , attn_dropout =
1