元转移学习,少量学习 该存储库包含针对论文的TensorFlow和PyTorch实现,作者孙倩*,*,( )和( (* =相等贡献)。 如果您对此存储库或相关文章有任何疑问,请随时或。 检查快照分类排行榜。 概括 介绍 入门 数据集 表现 引文 致谢 介绍 已经提出将元学习作为解决具有挑战性的一次性学习设置的框架。 关键思想是利用大量类似的少量任务,以学习如何使基础学习者适应新的任务,对于该新任务,只有少量标记的样本可用。 由于深度神经网络(DNN)仅仅使用少数几个样本就趋于过拟合,因此元学习通常使用浅层神经网络(SNN),因此限制了其有效性。 在本文中,我们提出了一种称为元转移学习(MTL)的新颖的少拍学习方法,该方法可以学习将深度神经网络适应于少拍学习任务。 具体来说,meta是指训练多个任务,并且通过学习每个任务的DNN权重的缩放和移位功能来实现传递。 我们在两个具有挑
1
这个是mini-imagenet-cache-train.pkl文件 DeepMind团队首次将miniImageNet数据集用于小样本学习研究,从此miniImageNet成为了元学习和小样本领域的基准数据集。DeepMind的那篇小样本学习的论文就是大名鼎鼎的Matching Network的来源: Matching Networks for One Shot Learning 。 miniImageNet包含100类共60000张彩色图片,其中每类有600个样本,每张图片的规格为84 × 84 84 \times 8484×84。通常而言,这个数据集的训练集和测试集的类别划分为:80 : 20 80:2080:20。相比于CIFAR10数据集,miniImageNet数据集更加复杂,但更适合进行原型设计和实验研究。
2022-11-28 16:27:40 657.66MB python pytorch 深度学习 开发语言
1