OmniNet:用于多模式多任务学习的统一架构 OmniNet是用于多模式多任务学习的Transformer体系结构的统一和扩展版本。 单个OmniNet体系结构可以对几乎任何现实领域(文本,图像,视频)的多个输入进行编码,并能够跨多种任务进行异步多任务学习。 OmniNet体系结构包含多个称为神经外围设备的子网,用于将特定于域的输入编码为时空表示形式,并连接到称为中央神经处理器(CNP)的通用中央神经网络。 CNP实现了基于变压器的通用时空编码器和多任务解码器。 该存储库包含用于的官方Pytorch实施(Pramanik等)。 本文演示了OmniNet的一个实例,该实例经过联合训练以执行
2023-04-11 15:36:51 17.41MB nlp machine-learning deep-learning neural-network
1
学习丰富的功能以进行真实图像还原和增强(ECCV 2020) , , , , , 和 论文: : 补充文件: 视频演示: : 摘要:为了从降级版本中恢复高质量图像内容,图像恢复在监视,计算摄影,医学成像和遥感等领域拥有众多应用。 最近,卷积神经网络(CNN)与传统的图像恢复任务方法相比取得了巨大的进步。 现有的基于CNN的方法通常以全分辨率或渐进式低分辨率表示形式运行。 在前一种情况下,获得了空间精确但上下文上不那么健壮的结果,而在后一种情况下,生成了语义上可靠但空间上不太准确的输出。 在本文中,我们提出了一种新颖的体系结构,其总体目标是通过整个网络维护空间精确的高分辨率表示,并从低分辨率表示接收强大的上下文信息。 我们方法的核心是包含几个关键元素的多尺度残差块:(a)并行多分辨率卷积流,用于提取多尺度特征;(b)跨多分辨率流的信息交换;(c)空间和渠道关注机
1
先去官网下载好anaconda 地址是 https://www.anaconda.com/distribution/#download-section  我下载的是64位python3.7版本的,因为pytorch只支持3.x版本的python,在安装过程中有一个如下界面(第二幅图)建议是两个都勾选上,这样就避免你去电脑里面自行设置环境变量了    安装好之后,使用cmd命令行 ,输入python,你可能会看到如下界面,不要着急,这是由于python解释器位于conda环境中,但是环境未激活,库可能无法加载 这时候,我们重新打开cmd,输入 conda info –envs ,等一下之后,再输
2023-04-11 13:04:07 482KB anaconda c conda
1
1.克隆源码 https://github.com/microsoft/DeepSpeed.git 2.在win10系统22H2版本上安装Visual Studio 2019,在支持GTX1060显卡的NVIDIA Studio Driver462.31驱动上安装cuda11.6+cudnn8.7,进入在python3.7的虚拟环境中,安装依赖pytorch1.12.0 3.更改源码 3.1.setyup.py增加环境变量 os.environ['DS_BUILD_AIO']='0' os.environ['DS_BUILD_SPARSE_ATTN']='0' 3.2.csrc/includes/memory_access_utils.h增加头文件 #include 4.执行编译命令 python setup.py bdist_wheel ,大约20分钟后在dist目录生成deepspeed-0.8.2+81b4d5db-cp37-cp37m-win_amd64.whl文件
2023-04-10 22:31:28 15.97MB python pytorch deepspeed gpu
1
包含训练代码、预测代码、数据划分代码、网络代码等,采用pytorch框架所写。
2023-04-10 19:33:58 11KB pytorch 分类 网络 python
DeepLabv3+水稻稻穗语义分割模型在Pytorch当中的实现 ### 目录 1. [性能情况 Performance](#性能情况) 2. [所需环境 Environment](#所需环境) 3. [注意事项 Attention](#注意事项) 4. [文件下载 Download](#文件下载) 5. [训练步骤 How2train](#训练步骤) 6. [预测步骤 How2predict](#预测步骤) 7. [评估步骤 miou](#评估步骤) 8. [参考资料 Reference](#Reference) ### 所需环境 torch==1.2.0 ### 注意事项 代码中的deeplab_mobilenetv2.pth和deeplab_xception.pth是基于VOC拓展数据集训练的。训练和预测时注意修改backbone。 ### 训练步骤 #### a、训练voc数据集 1、将我提供的voc数据集放入VOCdevkit中(无需运行voc_annotation.py)。 有问题请关注私聊,包此代码的答疑服务,基本秒回,不满意加球球包退款,可接受定制服务
2023-04-08 12:04:03 376.6MB DeepLabv3+ 水稻稻穗分割 pytorch 语义分割
PyTorch中带有MobileNet后端的RetinaFace推理代码 步骤1: cd cython python setup.py build_ext --inplace 第2步: python inference.py 评估(宽屏): Easy Val AP:0.8872715908531869 中值AP:0.8663337842229522 硬值AP:0.771796729363941 试验结果: 参考: @inproceedings {deng2019retinaface,标题= {RetinaFace:野外单阶段密集脸定位},作者= {Deng,Jiankang和Guo,Jia和Yuxiang,Zhou和Jinke Yu和Irene Kotsia和Zafeiriou,Stefanos},书名= { arxiv},年份= {2019}}
2023-04-08 00:47:54 9.38MB pytorch retinaface mobilenet-backend Python
1
PyTorch实现MNIST手写数字识别(整套流程,附对应源码文件)简单小例子 环境配置 在开始之前,我们需要进行一些环境配置,包括安装PyTorch、numpy和matplotlib等必要的Python库。 安装Anaconda 我们可以从官网下载适合自己系统的Anaconda安装包,安装时需要勾选添加环境变量选项。 创建环境 在Anaconda Prompt中输入以下命令: conda create --name pytorch_env python=3.8 该命令将创建一个名为pytorch_env的环境,并使用Python 3.8版本。
2023-04-07 21:25:47 6KB pytorch pytorch 软件/插件
1
VQ-VAE 这是VQ-VAE的轻量级(200 loc)实现。 用于减少计算到嵌入距离所需的内存。 引入了一个敏感度术语,以使所有嵌入都使用。 从距离到嵌入的时间减去了一段时间以来未使用的灵敏度。 在找到最小距离之前。 要求 Python 3.6 PyTorch 0.3 张量理解 训练 默认情况下,它在cifar10上训练 python vq-vae-img.py 编辑超级参数,源代码中的路径以在ImageNet上进行训练 我使用跟踪模型学习进度。 默认情况下它是关闭的,使用--lera启用它。 经过40k次迭代(K = 512,D = 128)后的ImageNet重建 执照 麻省理工学院
2023-04-07 20:06:23 58KB Python
1
GNN、pytorch-geometric 四个包 torch_cluster scatter sparse spline_conv
2023-04-07 17:31:07 4.15MB GNN
1