智能系统的核心能力是不断建立在以往经验的基础上,以加快和加强对新任务的学习。有两种截然不同的研究范式研究了这个问题。元学习将这一问题视为优先学习模型参数,以便对新任务进行快速适应,但通常假设任务集可以作为批处理一起使用。相比之下,在线(基于后悔的)学习考虑的是一个连续的设置,在这个设置中问题一个接一个地被发现,但传统上只训练一个单一的模型,没有任何特定任务的适应性。这项工作引入了在线元学习设置,它融合了上述两种模式的想法,以更好地捕捉持续终身学习的精神和实践。我们建议遵循元leader算法,它扩展了MAML算法(Finn et al., 2017)到这个设置。从理论上讲,这项工作提供了一个O(log T)遗憾保证,附加了一个更高阶的平滑假设(与标准在线设置相比)。在三种不同的大规模任务上的实验评价表明,该算法显著优于基于传统在线学习方法的其他算法。
【《Python元学习实战》随书代码】’Hands-On-Meta-Learning-With-Python - Learning to Learn using One-Shot Learning, MAML, Reptile, Meta-SGD and more with Tensorflow' by Sudharsan Ravichandiran