基于HLS的高效深度学习卷积神经网络FPGA实现方法项目全部数据.zip本文通过对现有相关研究的分析、总结和改进,给出了一系列在软件层面上如何构建和训练小巧高效且利于硬件加速的网络方法,在FPGA实现时如何减少资源、降低功耗及提高速度的方法,以及在HLS中如何增加设计灵活性、可移植性和可扩展性的方法,具有很好的实用价值。并结合这些方法构建和训练了一个网络,命名为EfficientNet,使用HLS在FPGA上对其进行了推断加速。通过与其他网络和平台的对比,验证了这些方法的有效性。本文的主要工作和贡献如下:
设计实现了一种轻量化的深度学习网络EfficientNet。针对传统网络参数量及计算量大且不利于硬件加速的问题,本文在保证精度的前提下,分析了以深度可分离卷积代替标准卷积、以步进代替池化、以平均池化代替全连接的方法,提出了尺寸不变通道增减交替的方法,并对这些方法进行了集成,从而构建了一个低复杂度的DCNN网络,并命名为EfficientNet。实验结果表明EfficientNet在公开的Flower_photos数据集上的分类精度为89.3%,相比Inception-v3,在参数量