2019-Online Meta-Learning.pdf

上传者: liz_Lee | 上传时间: 2021-06-01 22:06:07 | 文件大小: 1.12MB | 文件类型: PDF
智能系统的核心能力是不断建立在以往经验的基础上,以加快和加强对新任务的学习。有两种截然不同的研究范式研究了这个问题。元学习将这一问题视为优先学习模型参数,以便对新任务进行快速适应,但通常假设任务集可以作为批处理一起使用。相比之下,在线(基于后悔的)学习考虑的是一个连续的设置,在这个设置中问题一个接一个地被发现,但传统上只训练一个单一的模型,没有任何特定任务的适应性。这项工作引入了在线元学习设置,它融合了上述两种模式的想法,以更好地捕捉持续终身学习的精神和实践。我们建议遵循元leader算法,它扩展了MAML算法(Finn et al., 2017)到这个设置。从理论上讲,这项工作提供了一个O(log T)遗憾保证,附加了一个更高阶的平滑假设(与标准在线设置相比)。在三种不同的大规模任务上的实验评价表明,该算法显著优于基于传统在线学习方法的其他算法。

文件下载

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明