基于可切换规范化的可微学习规范化 DIFFERENTIABLE LEARNING-TO-NORMALIZE VIA SWITCHABLE NORMALI.pdf

上传者: 43569398 | 上传时间: 2021-06-29 09:02:38 | 文件大小: 2.89MB | 文件类型: PDF
我们通过提出可切换归一化(SN)来解决学习归一化问题,SN学习为深度神经网络的不同归一化层选择不同的归一化器。SN使用三个不同的作用域来计算统计信息(均值和方差),包括一个通道、一个层和一个小批量。SN通过端到端地学习它们的重要性权重来在它们之间进行切换。它有几个好的特性。首先,它适应各种网络架构和任务(见图1)。其次,它对大范围的批处理大小具有鲁棒性,即使在呈现小的小批处理(例如2个图像/GPU)时也能保持高性能。第三,SN没有敏感的超参数,这与将组数作为超参数搜索的组规范化不同。如果没有钟声和哨声,snoutperformsitsconterparts可以参与各种具有挑战性的基准测试,如ImageNet、COCO、CityScapes、ADE20K和dynamics。文中还介绍了对声纳的分析。我们希望这将有助于减轻使用和理解规范化技术在深度学习。序列号代码已于年发布https://github.com/switchablenorms/.

文件下载

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明