swats:在PyTorch中非官方实现从Adam切换到SGD优化-源码

上传者: 42128558 | 上传时间: 2021-09-09 21:30:55 | 文件大小: 6KB | 文件类型: ZIP
从Adam切换到SGD 表明:“即使在自适应解决方案具有更好的训练性能的情况下,通过自适应方法发现的解决方案的普遍性也比SGD差(通常显着更差)。这些结果表明,从业者应该重新考虑使用自适应方法来训练神经网络。 ” “来自的SWATS,这是ICLR在2018年获得的高分论文,该方法被提议自动从Adam切换到SGD,以获得更好的泛化性能。该算法本身的想法非常简单。它使用Adam,尽管调整得很少,但学习到一定阶段后,由SGD接管。 ” 用法 直接从此git存储库或从pypi使用以下任一命令从pip即可直接安装软件包。 pip install git+https://github.com/Mrpatekful/swats pip install pytorch-swats 安装后,可以将SWATS用作任何其他torch.optim.Optimizer 。 以下代码段简要介绍了如何使用该算

文件下载

资源详情

[{"title":"( 7 个子文件 6KB ) swats:在PyTorch中非官方实现从Adam切换到SGD优化-源码","children":[{"title":"swats-master","children":[{"title":"setup.py <span style='color:#111;'> 667B </span>","children":null,"spread":false},{"title":".gitignore <span style='color:#111;'> 1.17KB </span>","children":null,"spread":false},{"title":"requirements.txt <span style='color:#111;'> 398B </span>","children":null,"spread":false},{"title":"LICENSE <span style='color:#111;'> 1.04KB </span>","children":null,"spread":false},{"title":"README.md <span style='color:#111;'> 1.56KB </span>","children":null,"spread":false},{"title":"swats","children":[{"title":"__init__.py <span style='color:#111;'> 192B </span>","children":null,"spread":false},{"title":"optim.py <span style='color:#111;'> 6.34KB </span>","children":null,"spread":false}],"spread":true}],"spread":true}],"spread":true}]

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明