semseg-unet2:用于png图像语义分割的unet的实现-源码

上传者: 42128015 | 上传时间: 2021-07-18 21:20:31 | 文件大小: 18KB | 文件类型: ZIP
用于裂纹检测的U-Net深度学习模型 概括 Prenav用于裂缝检测的全卷积网络(FCN)模型(在2019年和2020年初)运行良好,但是要理解为什么要弄清楚为什么会犯错误,我们很难理解。 我们希望使用更简单易懂的深度学习模型架构,以建立更好的见解,从而真正提高裂缝检测模型的准确性和召回率。 U-Net体系结构是此的理想选择。 我们用作起点的代码是一个教程,因此旨在使其易于理解。 我们从这个TensorFlow教程开始: 我们修改了它: 对于裂纹检测任务 使用OpenImageIO读取和处理exr文件 要输出显示以下内容的有用图像: 具体的 人类标签标记为裂缝的像素 模型分类为裂缝的像素。 尽管我们的重点是使用更简单的深度学习模型架构来了解该模型在裂缝检测任务中的作用,但我们发现训练有素的U-Net模型也为我们提供了很好的精度,并让我们回想起了这项任务。 绝对是胜利。 介绍 讨论

文件下载

资源详情

[{"title":"( 10 个子文件 18KB ) semseg-unet2:用于png图像语义分割的unet的实现-源码","children":[{"title":"semseg-unet2-master","children":[{"title":".gitignore <span style='color:#111;'> 12B </span>","children":null,"spread":false},{"title":"README.md <span style='color:#111;'> 2.25KB </span>","children":null,"spread":false},{"title":"requirements_unet_all.txt <span style='color:#111;'> 1.64KB </span>","children":null,"spread":false},{"title":"src","children":[{"title":"generator_pil.py <span style='color:#111;'> 4.70KB </span>","children":null,"spread":false},{"title":"common_utils.py <span style='color:#111;'> 3.92KB </span>","children":null,"spread":false},{"title":"unet2_train.py <span style='color:#111;'> 17.01KB </span>","children":null,"spread":false},{"title":"image_utils.py <span style='color:#111;'> 5.68KB </span>","children":null,"spread":false},{"title":"unet_predict.py <span style='color:#111;'> 9.24KB </span>","children":null,"spread":false}],"spread":true},{"title":"run_predict.sh <span style='color:#111;'> 1.30KB </span>","children":null,"spread":false},{"title":"run_train_unet.sh <span style='color:#111;'> 2.48KB </span>","children":null,"spread":false}],"spread":true}],"spread":true}]

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明