基于pytorch实现的堆叠自编码神经网络,包含网络模型构造、训练、测试 主要包含训练与测试数据(.mat文件)、模型(AE_ModelConstruction.py、AE_Train.py)以及测试例子(AE_Test.py) 其中ae_D_temp为训练数据,ae_Kobs3_temp为正常测试数据,ae_ver_temp为磨煤机堵煤故障数据,数据集包含风粉混合物温度等14个变量 在程序中神经网络的层数和每层神经元个数没有固定,可根据使用者的输入值来构造神经网络,方便调试 autoencoder类在初始化时有三个参数,第一个是网络输入值,第二个是SAE编码过程的层数(编码、解码过程层数相同),第三个是是否添加BN层 这里为了构造方便,给每层神经元的个数与层数建立一个关系:第一层神经元的个数为2^(layer数+2),之后逐层为上一层的1/2
2023-04-13 21:52:14 15.8MB pytorch 堆叠自编码 神经网络 SAE
1
Question_Answering_on_SQuAD 用于提问和回答的Dyanamic Coattention网络。 要求: tqdm 张量板 Gensim 实施论文: 方法: DCN,也称为动态共同注意网络,是用于问答的端到端神经网络。 DCN由共同注意编码器和动态指针解码器组成。 共同注意编码器首先将问题和段落融合在一起,以生成一个面向问题的段落表示,称为大衣注意力编码,并将其馈送到动态指针解码器。 Dyanamic指针解码器由Maxout网络和Highway网络组成。 解码器输出两个值,分别是它在段落中预测的答案的开始索引和结束索引。 以DCN +的形式对上述方法进行了改进。 DCN的一个缺点是它仅具有一个单层的Coattention编码器。 DCN +由堆叠的涂层层组成,可帮助涂层编码器对输入进行更深入的表示。 已进行的另一项改进是将当前层的涂布强度输出与前一层的剩余输出
2023-04-13 19:45:17 18.45MB pytorch tkinter question-answering squad
1
efficientdet-d7.pth(Yet-Another-EfficientDet-Pytorch)
2023-04-13 08:57:00 199.43MB Yet-Another EfficientDet Pytorch efficientdet
1
元转移学习,少量学习 该存储库包含针对论文的TensorFlow和PyTorch实现,作者孙倩*,*,( )和( (* =相等贡献)。 如果您对此存储库或相关文章有任何疑问,请随时或。 检查快照分类排行榜。 概括 介绍 入门 数据集 表现 引文 致谢 介绍 已经提出将元学习作为解决具有挑战性的一次性学习设置的框架。 关键思想是利用大量类似的少量任务,以学习如何使基础学习者适应新的任务,对于该新任务,只有少量标记的样本可用。 由于深度神经网络(DNN)仅仅使用少数几个样本就趋于过拟合,因此元学习通常使用浅层神经网络(SNN),因此限制了其有效性。 在本文中,我们提出了一种称为元转移学习(MTL)的新颖的少拍学习方法,该方法可以学习将深度神经网络适应于少拍学习任务。 具体来说,meta是指训练多个任务,并且通过学习每个任务的DNN权重的缩放和移位功能来实现传递。 我们在两个具有挑
1
PyTorch + Catalyst实现的“ 。 该存储库处理培训过程。 为了进行推断,请检出GUI包装器:PyQT中的 。 该储存库已与合并为。 目录 要求 计算方式 我们在1050 Mobile和Tesla V100的两个GPU上运行了该程序。 我们没有进行任何基准测试,但是V100的速度大约提高了400倍。 它还取决于您下载的数据量。 因此,任何服务器级GPU都是可行的。 贮存 该程序确实会生成很多文件(下载和其他方式)。 每个音频文件的大小为96kiB。 对于7k独特的音频剪辑,并以70/30的比例进行火车和验证拆分,它占用了约120GiB的存储空间。 因此,如果您下载更多音频片段,则至少为1TB 。 记忆 至少需要4GB VRAM 。 它可以处理2个批处理大小。在20个批处理大小下,在两个GPU上,每个GPU占用16GiB VRAM。 设置 如果您使用的是Docker,则
1
sagemaker-pytorch-training-toolkit:用于在SageMaker上运行PyTorch培训脚本的工具包。 用于构建SageMaker Pytorch容器的Dockerfile位于https://github.comawsdeep-learning-containers
2023-04-11 20:56:00 11.16MB docker aws pytorch sagemaker
1
OmniNet:用于多模式多任务学习的统一架构 OmniNet是用于多模式多任务学习的Transformer体系结构的统一和扩展版本。 单个OmniNet体系结构可以对几乎任何现实领域(文本,图像,视频)的多个输入进行编码,并能够跨多种任务进行异步多任务学习。 OmniNet体系结构包含多个称为神经外围设备的子网,用于将特定于域的输入编码为时空表示形式,并连接到称为中央神经处理器(CNP)的通用中央神经网络。 CNP实现了基于变压器的通用时空编码器和多任务解码器。 该存储库包含用于的官方Pytorch实施(Pramanik等)。 本文演示了OmniNet的一个实例,该实例经过联合训练以执行
2023-04-11 15:36:51 17.41MB nlp machine-learning deep-learning neural-network
1
学习丰富的功能以进行真实图像还原和增强(ECCV 2020) , , , , , 和 论文: : 补充文件: 视频演示: : 摘要:为了从降级版本中恢复高质量图像内容,图像恢复在监视,计算摄影,医学成像和遥感等领域拥有众多应用。 最近,卷积神经网络(CNN)与传统的图像恢复任务方法相比取得了巨大的进步。 现有的基于CNN的方法通常以全分辨率或渐进式低分辨率表示形式运行。 在前一种情况下,获得了空间精确但上下文上不那么健壮的结果,而在后一种情况下,生成了语义上可靠但空间上不太准确的输出。 在本文中,我们提出了一种新颖的体系结构,其总体目标是通过整个网络维护空间精确的高分辨率表示,并从低分辨率表示接收强大的上下文信息。 我们方法的核心是包含几个关键元素的多尺度残差块:(a)并行多分辨率卷积流,用于提取多尺度特征;(b)跨多分辨率流的信息交换;(c)空间和渠道关注机
1
先去官网下载好anaconda 地址是 https://www.anaconda.com/distribution/#download-section  我下载的是64位python3.7版本的,因为pytorch只支持3.x版本的python,在安装过程中有一个如下界面(第二幅图)建议是两个都勾选上,这样就避免你去电脑里面自行设置环境变量了    安装好之后,使用cmd命令行 ,输入python,你可能会看到如下界面,不要着急,这是由于python解释器位于conda环境中,但是环境未激活,库可能无法加载 这时候,我们重新打开cmd,输入 conda info –envs ,等一下之后,再输
2023-04-11 13:04:07 482KB anaconda c conda
1
1.克隆源码 https://github.com/microsoft/DeepSpeed.git 2.在win10系统22H2版本上安装Visual Studio 2019,在支持GTX1060显卡的NVIDIA Studio Driver462.31驱动上安装cuda11.6+cudnn8.7,进入在python3.7的虚拟环境中,安装依赖pytorch1.12.0 3.更改源码 3.1.setyup.py增加环境变量 os.environ['DS_BUILD_AIO']='0' os.environ['DS_BUILD_SPARSE_ATTN']='0' 3.2.csrc/includes/memory_access_utils.h增加头文件 #include 4.执行编译命令 python setup.py bdist_wheel ,大约20分钟后在dist目录生成deepspeed-0.8.2+81b4d5db-cp37-cp37m-win_amd64.whl文件
2023-04-10 22:31:28 15.97MB python pytorch deepspeed gpu
1