基于PP-LiteSeg的框架下训练的仿真环境下的语义分割模型,本人对predict函数进行了爆改,来实现了低延时的实时语义分割。 博客地址:https://blog.csdn.net/weixin_51331359/article/details/126137279?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22126137279%22%2C%22source%22%3A%22weixin_51331359%22%7D&ctrtid=I6dOl
2022-08-03 16:05:24 318.82MB 计算机视觉 语义分割 paddlepaddle 自动驾驶
1
mask_rcnn的最新版本模型
2022-08-02 16:05:41 227.5MB mask 语义分割
1
nuclick组织病理数据集,用于病理分析,深度学习。三种不同类型的细胞定位,语义分割。 包含原图,标签图(rgb标签)
2022-07-26 17:06:57 437.62MB 深度学习 组织病理 语义分割
1
语义分割json数据转图片png数据训练
2022-07-25 12:05:24 2KB 语义分割 json png unet
1
本资源是语义分割模型 DeeplabV3plus 的 pytorch 复现,其 backbone 包括 Xception、Resnet101 和 MobilenetV2。 项目仅提供代码,没有给出训练后的模型!
1
BSDS 500 是用于轮廓检测和语义分割研究的数据集,包含从 30 个人类受试者中收集的 12000 个由手工标记的 1000 个 Corel 数据集图像。 其中一半的分割是通过向主体呈现彩色图像而获得的; 另一半来自呈现灰度图像,基于该数据的公共基准包括 300 个图像的所有灰度和颜色分割,其中分为 200 个训练图像和 100 个测试图像。 该数据集于 2001 年由加州大学伯克利分校发布。 相关论文:《A Database of Human Segmented Natural Images and its Application to Evaluating Segmentation Algorithms and Measuring Ecological Statistics》
2022-07-13 11:05:36 66.17MB 数据集
|___01 调试.py |___02 调试.py |___dada_csv.py |___data | |___test.csv | |___train.csv | |___val.csv |___markdown_note | |___数据切割.md | |___灰度label可视化.md |___model | |___UNet.py |___pre.py |___train.py |___utils | |___DataLoade.py | |___data_txt.py | |___eval_tool.py | |___json_to_dataset.py | |___loss.py | |___pre_utils.py | |___SegmentationMetric.py | |___utils.py | |___单通道标签转彩色标签.py | |___数据增强.py |___video.py
2022-07-05 12:05:50 156.3MB pytorch 语义分割
Camvid语义分割数据集.zip
2022-06-29 09:06:40 1.12GB 数据集
利用生成对抗网络实现溢油图像语义分割
2022-06-28 09:13:17 24KB 深度学习
1
keras遥感图像Unet语义分割(支持多波段&多类)
2022-06-15 14:08:28 13KB keras unet 图像分割