PyTorch-Tweet-情感分析
2023-04-15 14:07:29 2KB
1
pytorch-1.0.2.tar.gz
2023-04-14 22:20:35 689B pytorch
1
今天小编就为大家分享一篇pytorch 实现cross entropy损失函数计算方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
2023-04-14 20:17:22 36KB pytorch nn.MSELoss 损失函数
1
nvidia jetson pytorch文件 torch-1.7.0a0+torchvision-0.8.0-cp36-cp36m-linux_aarch64
2023-04-14 16:29:10 219.81MB pytorch pytorch
1
基于pytorch实现的堆叠自编码神经网络,包含网络模型构造、训练、测试 主要包含训练与测试数据(.mat文件)、模型(AE_ModelConstruction.py、AE_Train.py)以及测试例子(AE_Test.py) 其中ae_D_temp为训练数据,ae_Kobs3_temp为正常测试数据,ae_ver_temp为磨煤机堵煤故障数据,数据集包含风粉混合物温度等14个变量 在程序中神经网络的层数和每层神经元个数没有固定,可根据使用者的输入值来构造神经网络,方便调试 autoencoder类在初始化时有三个参数,第一个是网络输入值,第二个是SAE编码过程的层数(编码、解码过程层数相同),第三个是是否添加BN层 这里为了构造方便,给每层神经元的个数与层数建立一个关系:第一层神经元的个数为2^(layer数+2),之后逐层为上一层的1/2
2023-04-13 21:52:14 15.8MB pytorch 堆叠自编码 神经网络 SAE
1
Question_Answering_on_SQuAD 用于提问和回答的Dyanamic Coattention网络。 要求: tqdm 张量板 Gensim 实施论文: 方法: DCN,也称为动态共同注意网络,是用于问答的端到端神经网络。 DCN由共同注意编码器和动态指针解码器组成。 共同注意编码器首先将问题和段落融合在一起,以生成一个面向问题的段落表示,称为大衣注意力编码,并将其馈送到动态指针解码器。 Dyanamic指针解码器由Maxout网络和Highway网络组成。 解码器输出两个值,分别是它在段落中预测的答案的开始索引和结束索引。 以DCN +的形式对上述方法进行了改进。 DCN的一个缺点是它仅具有一个单层的Coattention编码器。 DCN +由堆叠的涂层层组成,可帮助涂层编码器对输入进行更深入的表示。 已进行的另一项改进是将当前层的涂布强度输出与前一层的剩余输出
2023-04-13 19:45:17 18.45MB pytorch tkinter question-answering squad
1
efficientdet-d7.pth(Yet-Another-EfficientDet-Pytorch)
2023-04-13 08:57:00 199.43MB Yet-Another EfficientDet Pytorch efficientdet
1
元转移学习,少量学习 该存储库包含针对论文的TensorFlow和PyTorch实现,作者孙倩*,*,( )和( (* =相等贡献)。 如果您对此存储库或相关文章有任何疑问,请随时或。 检查快照分类排行榜。 概括 介绍 入门 数据集 表现 引文 致谢 介绍 已经提出将元学习作为解决具有挑战性的一次性学习设置的框架。 关键思想是利用大量类似的少量任务,以学习如何使基础学习者适应新的任务,对于该新任务,只有少量标记的样本可用。 由于深度神经网络(DNN)仅仅使用少数几个样本就趋于过拟合,因此元学习通常使用浅层神经网络(SNN),因此限制了其有效性。 在本文中,我们提出了一种称为元转移学习(MTL)的新颖的少拍学习方法,该方法可以学习将深度神经网络适应于少拍学习任务。 具体来说,meta是指训练多个任务,并且通过学习每个任务的DNN权重的缩放和移位功能来实现传递。 我们在两个具有挑
1
PyTorch + Catalyst实现的“ 。 该存储库处理培训过程。 为了进行推断,请检出GUI包装器:PyQT中的 。 该储存库已与合并为。 目录 要求 计算方式 我们在1050 Mobile和Tesla V100的两个GPU上运行了该程序。 我们没有进行任何基准测试,但是V100的速度大约提高了400倍。 它还取决于您下载的数据量。 因此,任何服务器级GPU都是可行的。 贮存 该程序确实会生成很多文件(下载和其他方式)。 每个音频文件的大小为96kiB。 对于7k独特的音频剪辑,并以70/30的比例进行火车和验证拆分,它占用了约120GiB的存储空间。 因此,如果您下载更多音频片段,则至少为1TB 。 记忆 至少需要4GB VRAM 。 它可以处理2个批处理大小。在20个批处理大小下,在两个GPU上,每个GPU占用16GiB VRAM。 设置 如果您使用的是Docker,则
1
sagemaker-pytorch-training-toolkit:用于在SageMaker上运行PyTorch培训脚本的工具包。 用于构建SageMaker Pytorch容器的Dockerfile位于https://github.comawsdeep-learning-containers
2023-04-11 20:56:00 11.16MB docker aws pytorch sagemaker
1