班级增量学习 文件 用于班级增量学习的自适应聚合网络,CVPR2021。[ ] [] 助记符训练:无需忘记的多级增量学习,CVPR2020。[ ] [] 引文 如果它们对您的工作有帮助,请引用我们的论文: @inproceedings { Liu2020AANets , author = { Liu, Yaoyao and Schiele, Bernt and Sun, Qianru } , title = { Adaptive Aggregation Networks for Class-Incremental Learning } , booktitle = { The IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) } , year = { 20
1
很棒的增量学习/终身学习 民意调查 图像分类中的在线连续学习:一项实证调查( arXiv 2020 )[] [] 自然语言处理中的持续终身学习:一项调查( COLING 2020 )[] 班级增量学习:调查和绩效评估( arXiv 2020 )[] [] 视觉任务的类增量学习算法的综合研究(神经网络)[] [] 持续学习调查:在分类任务中避免遗忘( TPAMI 2021 ) [ ] 神经网络的持续终身学习:回顾(神经网络)[论文] 文件 2021年 区分性和生成性持续学习的有效特征转换( CVPR,2021年)[论文] 借助不断发展的分类器进行少量增量式学习( CVPR,2021年)[论文] 基于矫正的持续学习知识保留( CVPR,2021年)[论文] DER:用于班级增量学习的动态可扩展表示形式( CVPR,2021 )[论文] 彩虹记忆:通过多种样本记忆进行持续学习(
2022-03-20 15:38:22 6KB
1
持续学习基准 使用流行的持续学习算法评估三种类型的任务转移。 该存储库使用PyTorch实现并模块化了以下算法: EWC: ,(克服神经网络中的灾难性遗忘) 在线EWC: , SI: ,(通过突触智能持续学习) MAS: ,书面(“内存感知突触:学习(不)忘记的内容”) 创业板: ,(用于持续学习的梯度情景记忆) (更多即将到来) 将以上所有算法与具有相同静态内存开销的以下基准进行比较: 天真彩排: L2: , 关键表: 如果此存储库对您的工作有所帮助,请引用: @inproceedings{Hsu18_EvalCL, title={Re-evaluating Continual Learning Scenarios: A Categorization and Case for Strong Baselines}, author={Yen-Chang Hsu a
1
持续学习 这是以下论文中描述的持续学习实验的PyTorch实现: 三种持续学习的方案() 具有反馈连接的生成性重放是持续学习的通用策略() 要求 当前版本的代码已经过测试: pytorch 1.1.0 torchvision 0.2.2 运行实验 可以使用main.py运行单个实验。 主要选项有: --experiment :哪个任务协议? ( splitMNIST | permMNIST ) --scenario :根据哪种情况? ( task | domain | class ) --tasks :多少个任务? 要运行特定方法,请使用以下命令: 上下文相关门(XdG):
1
不断学习的增量学习者 存储我在博士学位论文(2019-)期间完成的所有公共作品的存储库。 您可以在其中找到已知的实现(iCaRL等),也可以找到我的所有论文。 您可以在我的找到后者的列表。 结构体 每个模型都必须继承inclearn.models.base.IncrementalLearner 。 PODNet:用于小任务增量学习的合并输出提炼 ] 如果您在研究中使用本文/代码,请考虑引用我们: @inproceedings{douillard2020podnet, title={PODNet: Pooled Outputs Distillation for Small-Tasks Incremental Learning}, author={Douillard, Arthur and Cord, Matthieu and Ollion, Charles and R
2021-10-10 11:04:38 4.93MB research deep-learning pytorch incremental-learning
1
保持意义的持续学习(MPCL) 这是的后续。 核心思想保持不变。 定位意义 MPCL认为,潜在表示通过对外界采取行动而获得了意义。 为了使连续学习在复杂的环境中易于管理并避免,含义必须随着时间的流逝而保持稳定。 这是MPCL背后的核心思想。 请注意,稳定性并不意味着闲置:只要可以在表示的计算范围之外继续满足其目的,就可以完善表示模型。 MPCL借鉴了内含的。 我希望MPCL可以帮助建立更多位置的人工代理,尽管它并不完全符合当前的体现/情境认知理论。 在我的情境认知版本中,意义是核心。 “含义”是与需要稳定的外界的联系。 传统上,程序员是要确定算法输入和输出的含义的,因为含义不会神奇地从其算法的语法复杂性中浮现出来。 智能行为也不是来自孤立的算法,因为只有当智能算法在观察者眼中做出有意义的事情时,智能算法才能被认为是智能的,即,行为模式只能在可理解的范围内被认为是智能的。 在本自述
1