持续学习基准 使用流行的持续学习算法评估三种类型的任务转移。 该存储库使用PyTorch实现并模块化了以下算法: EWC: ,(克服神经网络中的灾难性遗忘) 在线EWC: , SI: ,(通过突触智能持续学习) MAS: ,书面(“内存感知突触:学习(不)忘记的内容”) 创业板: ,(用于持续学习的梯度情景记忆) (更多即将到来) 将以上所有算法与具有相同静态内存开销的以下基准进行比较: 天真彩排: L2: , 关键表: 如果此存储库对您的工作有所帮助,请引用: @inproceedings{Hsu18_EvalCL, title={Re-evaluating Continual Learning Scenarios: A Categorization and Case for Strong Baselines}, author={Yen-Chang Hsu a
1
使用暹罗网络进行脱机签名验证 使用暹罗卷积神经网络进行脱机签名验证。 数据集=> 上面的数据集包含160个个体的印地语签名和100个个体的孟加拉语签名。 我只使用了印地语签名数据集。 参考:
1
CNNIQA 以下论文的PyTorch 1.3实施: 笔记 在这里,选择优化器作为Adam,而不是本文中带有势头的SGD。 data /中的mat文件是从数据集中提取的信息以及有关火车/ val /测试段的索引信息。 LIVE的主观评分来自。 训练 CUDA_VISIBLE_DEVICES=0 python main.py --exp_id=0 --database=LIVE 训练前, im_dir在config.yaml被指定必须的。 可以在config.yaml设置数据库内实验中的Train / Val / Test拆分比率(默认值为0.6 / 0.2 / 0.2)。 评估 测试演示 python test_demo.py --im_path=data/I03_01_1.bmp 交叉数据集 python test_cross_dataset.py --help TODO:
1
基于双阶段注意力的时间序列预测神经网络,基于Chandler Zuo的。 我已经将代码扩展为适用于多元时间序列,并添加了一些预处理功能,但是鉴于我基本上是从他的帖子中复制代码,因此版权可能归他所有。 最近使用PyTorch JIT的分支称为jit 。 有一个不同的,但是据我所知,它只是单变量。
2021-11-04 14:18:25 6.38MB deep-learning pytorch neural-networks forecasting
1
卷积神经网络的开发,用于音乐音频文件的多标签自动标记 初步步骤 下载mp3文件,然后使用以下方法将其组合:cat mp3.zip。*> single_mp3.zip从以下子文件夹中提取文件:find。 -mindepth 2型f -print -exec mv {}。 ; 介绍 通常,音乐音频文件可以随附与其内容有关的元数据,例如自由文本描述或标签。 事实证明,标签更有用,因为它们可以提供对音频文件的更直接描述,并且可以用于与音乐相关的推荐系统中的任务,如按性别分类,艺术家,乐器等。 由于并非所有音频文件都带有标签,因此需要自动标记。 广泛使用的一种方法涉及使用无监督特征学习,例如K均值,稀疏编码和Boltzmann机器。 在这些情况下,主要关注的是捕获低水平音乐结构,这些结构可用作某些分类器的输入。 另一种方法涉及受监督的方法,例如各种体系结构类型(MLP,CNN,RNN)的深层神经
1
关于Relu文章的理解翻译,原文见paper:Deep Sparse Rectifier Neural Networks
2021-11-03 14:34:36 515KB Relu,Deep Sparse Rectifier Neural
1
SSD:单发MultiBox检测器 介绍 这是我的2种模型的pytorch实现: SSD-Resnet50和SSDLite-MobilenetV2 。 这些模型基于论文描述的原始模型(SSD-VGG16)。 此实现支持混合精度训练。 SSD Resnet50的输出示例。 动机 为什么在已经有许多ssd实现的情况下存在此实现? 我相信许多人在看到此实现时都会想到这个问题。 实际上,Pytorch中已经有许多SSD及其变体的实现。 但是,其中大多数是: 过于复杂 模块化 增加了许多改进 未评估/可视化 以上几点使学习者难以理解原始ssd的外观。 因此,我将重点放在简单性上来重新实现这个众所周知的模型。 我相信此实现适合不同级别的ML / DL用户,尤其是初学者。 与本文中描述的模型相比,有一些小的更改(例如主干),但是其他部分严格遵循本文。 数据集 数据集 班级 #火车图片 #验证图片
1
BigGAN-PyTorch 作者的正式非官方PyTorch BigGAN实现。 此仓库包含由Andrew Brock,Jeff Donahue和Karen Simonyan的训练中的BigGAN的4-8 GPU训练代码。 这段代码是由Andy Brock和Alex Andonian编写的。 如何使用此代码 你会需要: 版本1.0.1 tqdm,numpy,scipy和h5py ImageNet培训集 首先,您可以选择为目标数据集准备经过预处理的HDF5版本,以实现更快的I / O。 遵循此步骤(或不执行此操作),您将需要计算FID所需的Inception时刻。 这些都可以通过修改
2021-11-01 16:48:03 2.4MB deep-learning pytorch neural-networks gans
1
类激活图 通过可视化对于这些模型的预测(或视觉解释)“重要”的输入区域,可以使基于卷积神经网络(CNN)的模型更加透明的技术。 使用VinBigData图像和Inception架构的示例
1
美国运输模式 US-Transporation是我们数据集的名称,其中包含来自13个以上用户的传感器数据。 鉴于文献中缺乏针对TMD的通用基准,我们通过一个简单的Android应用程序收集了一大套属于不同主题的度量。 我们公开发布数据集,以便其他研究人员可以从中受益,以进行进一步的改进和提高研究的可重复性。 我们的数据集是由不同性别,年龄和职业的人构建的。 此外,我们不对应用程序的使用施加任何限制,因此,每个用户都记录自己习惯执行该操作的数据,以便评估现实世界的状况。 除了可下载的数据集之外,在此页面中,您还可以找到Python的代码以提取特征,并建立机器学习模型以进行预测。 您可以在找到有关数据集和我们的工作的更多信息。 如果对您的研究有所帮助,请在您的出版物中引用以下论文: @article{carpineti18, Author = {Claudia Carpineti,
1