在FPGA上进行快速,可扩展的量化神经网络推理
FINN是Xilinx研究实验室的实验框架,旨在探索FPGA上的深度神经网络推理。 它专门针对,重点是生成为每个网络定制的数据流样式的体系结构。 由此产生的FPGA加速器是高效的,可以产生高吞吐量和低延迟。 该框架是完全开源的,以提供更高程度的灵活性,并且旨在使神经网络研究能够跨越软件/硬件抽象堆栈的多个层。
我们有一个单独的存储库 ,其中包含几个神经网络的预构建示例。 有关FINN的更多常规信息,请访问并查看。
入门
请参阅“页面,以获取有关需求,安装以及如何以不同模式运行FINN的更多信息。 由于项目依赖项的复杂性质,我们目前仅支持基于Docker的FINN编译器执行。
FINN有什么新功能?
2020-12-17:发布了v0.5b(测试版),其中包括MobileNet-v1的新。 在 上阅读更多内容。
2020-09-21: v0.4b(beta)已发布。 在 上阅读更多内容。
2020-05-08: v0.3b(测试版)发布,最初支持卷积,并行转换,为MVAU提供更灵活的内存分配,吞吐量测试以及许多其他较小的改进和错误修
1