本资源是语义分割模型 DeeplabV3plus 的 pytorch 复现,其 backbone 包括 Xception、Resnet101 和 MobilenetV2。 项目仅提供代码,没有给出训练后的模型!
1
BSDS 500 是用于轮廓检测和语义分割研究的数据集,包含从 30 个人类受试者中收集的 12000 个由手工标记的 1000 个 Corel 数据集图像。 其中一半的分割是通过向主体呈现彩色图像而获得的; 另一半来自呈现灰度图像,基于该数据的公共基准包括 300 个图像的所有灰度和颜色分割,其中分为 200 个训练图像和 100 个测试图像。 该数据集于 2001 年由加州大学伯克利分校发布。 相关论文:《A Database of Human Segmented Natural Images and its Application to Evaluating Segmentation Algorithms and Measuring Ecological Statistics》
2022-07-13 11:05:36 66.17MB 数据集
|___01 调试.py |___02 调试.py |___dada_csv.py |___data | |___test.csv | |___train.csv | |___val.csv |___markdown_note | |___数据切割.md | |___灰度label可视化.md |___model | |___UNet.py |___pre.py |___train.py |___utils | |___DataLoade.py | |___data_txt.py | |___eval_tool.py | |___json_to_dataset.py | |___loss.py | |___pre_utils.py | |___SegmentationMetric.py | |___utils.py | |___单通道标签转彩色标签.py | |___数据增强.py |___video.py
2022-07-05 12:05:50 156.3MB pytorch 语义分割
Camvid语义分割数据集.zip
2022-06-29 09:06:40 1.12GB 数据集
利用生成对抗网络实现溢油图像语义分割
2022-06-28 09:13:17 24KB 深度学习
1
keras遥感图像Unet语义分割(支持多波段&多类)
2022-06-15 14:08:28 13KB keras unet 图像分割
天池地表建筑物语义分割模型 FCN
2022-06-10 09:10:44 73.15MB 语义分割 天池
1
因为上传文件限制,该数据集少了测试集,以及对应标签。该数据集可以应用到语义分割的学习当中,是较为完整的语义分割数据集。
2022-06-09 03:14:00 387.19MB 深度学习 语义分割 camvid
1
用于糖尿病视网膜病变筛查项目,数据集做了图像格式转换,图像二值化处理;数量为几百张,含分割后的标签
2022-06-08 21:05:21 7.62MB 数据集
通用的语义分割标注工具,可以用于deeplab系列、mask rcnn等逐像素分割算法的数据标注,标签格式为json文件
1