运行顺序: 1. 原始训练,得到一个最优mAP等评价指标 2.通过调整BN稀疏值sr,运行train_sparity.py稀疏训练得到一个稍微小的模型 3. 将训练好的last.pt 放到prune.py 中进行剪枝,控制剪枝率; 4. Finetune得到最优模型
2022-10-28 17:05:22 94.82MB 机器视觉 深度学习 图像算法 剪枝
对yolov5s进行稀疏化训练并剪枝,模型参数下降80%,mAP精度几乎不受影响
2022-10-14 09:08:20 5.58MB 剪枝 模型轻量化
知识蒸馏是提升网络性能的方法,通过一个教师网络指导学生网络的学习,将教师网络学习到的知识迁移到学生网络上。 项目博客: https://blog.csdn.net/weixin_38346042/article/details/126065848
2022-10-14 09:08:19 5.46MB yolov5 知识蒸馏 模型轻量化 目标检测
基于微信小程序的BIM轻量化模型浏览系统的设计与实现.pdf
2022-08-31 09:46:25 1.12MB
1
一个轻量化模型,在经典openpose上做出了相应改进 可用于多人的、实时的姿态估计并记录每个人的id进行跟踪 深度学习--网络模型简单化 很方便的集成到python C++环境中 适合对计算机视觉研究者深入探索
1
雷云3轻量化安装包.zip
2022-08-14 01:15:07 390.47MB 雷蛇 雷云 安装包
1
轻量化json......................
2022-08-04 22:02:18 1.02MB json
1
运行顺序:第一步 原始训练,得到一个最优mAP等评价指标,记录在小本本上。 第二步:通过调整BN稀疏值(main 参数中的sr),运行train_sparity.py稀疏训练得到一个稍微小一点点的模型(和原始的精度比较,看看哪个稀疏值最好~) 第三步:将上一步的训练好的last.pt 放到prune.py 中进行剪枝,控制剪枝率;剪枝好的模型,在根目录下:pruned_model.pt 是fp32的,你除以2会得到最后的模型大小 第四步:Finetune,用刚刚的pruned模型重新训练,得到最优模型,就是最小且最快,且最好的啦~(和原始和稀疏训练的比较一下哦) 博文链接:https://blog.csdn.net/qq_46098574/article/details/125174256
2022-07-31 12:05:02 94.82MB 模型剪枝
1
深层神经网络拥有更强特征表达能力的同时, 也带来了优化难、训练成本高及梯度弥散等问题; 参数数量的激增则导致模型过于臃肿, 不利于其在移动端及工业控制设备等算力弱、存储小的平台上的部署. 针对这些问题, 构建了一种融合空洞卷积和多尺度稀疏结构的轻量神经网络对图像进行特征提取, 实现对带有彩色图形噪声且字符扭曲粘连严重的验证码图像的端到端识别. 将包含100万张验证码图像的数据集按98:1:1的比例划分为训练集、验证集和测试集, 逐批参与训练. 实验结果表明, 该网络在大大减少参数数量的同时, 具有测试集上98.9%的识别成功率.
1
深度学习与CV教程(10) - 轻量化CNN架构 (SqueezeNet,ShuffleNet,MobileNet等).doc
2022-07-08 14:06:44 4.41MB 技术资料