基于剪枝与量化的卷积神经网络压缩算法

上传者: 38610815 | 上传时间: 2022-03-12 21:27:17 | 文件大小: 2.46MB | 文件类型: -
随着深度学习的发展,卷积神经网络作为其重要算法被广泛应用到计算机视觉、自然语言处理及语音处理等各个领域,并取得了比传统算法更为优秀的成绩。但是,卷积神经网络结构复杂,参数量和计算量巨大,使得很多算法必须在GPU上实现,导致卷积神经网络难以应用在资源不足且实时性要求很高的移动端。为了解决上述问题,文中提出通过同时优化卷积神经网络的结构和参数来对卷积神经网络进行压缩,以使网络模型尺寸变小。首先,根据权重对网络模型结果的影响程度来对权重进行剪枝,保证在去除网络结构冗余信息的冋时保留模型的重要连接;然后通过量化感知( quanTIκaτion- awareτraining)对卷积神经网络的浮点型权重和激活值进行完全量化,将浮点运算转换成定点运算,在降低网络模型计算量的冋时减少网络模型的尺寸。文中选用 tensorflow深度学习框架,在 Ubuntu16.04操作系统中使用 Spyder编译器对所提算法进行验证实验结果表眀,该算法使结枃简单的 Lenet模型从l.64M压缩至θ.36M,压缩比达到η8%,准确率只下降了了0.016;使轻量级网络 Mobilenet模型从16.9M压缩至3.1M,压缩比达到81%,准确率下降0.03。实验数据说明,在对卷积神经网络权重剪枝与参数量化辶后,该算法可以做到在准确率损失较小的情况下,对模型进行冇α压缩,解决了卷积神经网络模型难以部署到移动端的问题。

文件下载

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明