目录说明: data:数据集 自行将images文件夹添加到data目录下 source:源码 Coelho2009_ISBI_NuclearSegmentation: ,该源码可以运行通与最新jug兼容. 但主要还是通过以下方法对源码进行跟踪. 环境准备: 在机器上安装好python,pip包管理工具 在该根目录下直接安装所需的软件依赖包: $sudo apt-get install libfreeimage-dev #解决FreeImage报错, $sudo apt-get install libmagick++-dev 主要是应为缺少freeimage开发库. 使用如下命令安装相关python依赖包: pip install -r requirements.txt (#numpy cast bug已解决) 代码运行: 进入到sources目录后, 运行以下语句 python jug
2022-04-21 21:38:24 24KB Python
1
汽车结构语义分割数据集
2022-04-12 17:05:58 438.58MB 汽车 语义分割数据集 深度学习 人工智能
1
CamVid数据集包括700多张精准标注的图片用于强监督学习,可分为训练集一、验证集、测试集。同时,在CamVd数据集中通常使用11种常用的类别来进行分割精度的评估,分别为:道路(Road)、交通标志(Symbol)、汽车(Car)、天空(Sky)、行人道(Sidewalk)、电线杆(Pole)、围墙(Fence)、行人(Pedestrian)、建筑物(Building)、自行车(Bicyclist) 、树木(Tree)。注意背景是0,所以这里给类别的时候是给12,而不是11
2022-03-04 09:40:48 179.27MB 语义分割数据集
1
兄弟们好呀,这里是肆十二,这转眼间寒假就要过完了,相信大家的毕设也要准备动手了吧,作为一名大作业区的UP主,也该蹭波热度了,之前关于图像分类和目标检测我们都出了相应的教程,所以这期内容我们搞波新的,我们用Unet来做医学图像分割。我们将会以皮肤病的数据作为示范,训练一个皮肤病分割的模型出来,用户输入图像,模型可以自动分割去皮肤病的区域和正常的区域。
2022-02-24 10:45:17 885.84MB 语义分割 Unet 深度学习 Pytorch
pascalVoc数据集baidupan
1
数据集是基于深度学习语义分割技术的重要组成部分。为了将语义分割技术应用于野外战场环境,构建一个符合实战场景的数据集至关重要。针对迷彩伪装目标侦察识别的作战保障需求,分析了野外战场环境及战场侦察图像的特点,设计了特定场景数据集的构建流程与方法,构建了具有精细化语义标注的语义分割数据集CSS,并通过实验验证了该数据集在语义分割任务上的有效性。
2021-12-01 09:37:34 15.25MB 图像处理 数据集 语义分割 迷彩伪装
1
潍坊大棚语义分割数据集,基于0.6米谷歌地球影像。770张1600*1600像素的图片。由个人和朋友一起制作。此内容为网盘链接,文件大小4G。详细介绍见博客https://blog.csdn.net/weixin_40450867/article/details/119483258
2021-11-15 12:06:12 78B 语义分割 遥感 大棚
资源包含175张训练用数据,onnxruntime执行脚本。安装依赖后,可直接运行脚本,获取生成的结果。如若获取资源后无法执行,请私信。
2021-11-12 09:05:04 86.5MB 天空分割 计算机视觉 深度学习 python
CamVid is provided by The University of Cambridge.本数据集由剑桥大学提供。 camvid_class_dict.csv camvid_test_labels.zip camvid_train_labels.zip camvid_val.zip camvid_test.zip camvid_val_labels.zip camvid_train.zip
2021-10-24 11:46:49 573.4MB 数据集
1
HACS: Human Action Clips and Segments Dataset
2021-09-24 13:59:00 17.08MB Python开发-机器学习
1