Pytorch-3D-医学图像语义分割 这是我的私人研究资料库的发行版。 随着研究的进行,它将进行更新。 为什么我们需要AI来进行医学图像语义分割? 放射治疗治疗计划需要精确的轮廓,以最大程度地扩大目标覆盖范围,同时最大程度地降低对周围高风险器官(OAR)的毒性。 医师的专业知识和经验水平各异,在手动轮廓绘制过程中会引入较大的观察者内变化。 观察者之间和观察者内部的轮廓变化导致治疗计划的不确定性,这可能会损害治疗结果。 在当前的临床实践中,由医生进行手动轮廓绘制非常耗时,当患者躺在沙发上时,它无法支持自适应治疗。 例子 CT切片 地面真相 预言 更新日志 2020年7月11日更新 基本训练/验证功能 型号:更深的3D残留U-net 2020年7月13日更新 型号:3D残留U-net 数据加载器中的规范化控制 考虑引用我们的论文: Zhang,Z.,Zhao,T.,Gay,H.,Z
1
对比对象蒙版提案的无监督语义分割 此回购包含我们论文的Pytorch实现: , , 和 。 :trophy: SOTA用于无监督的语义分割。 有关更多信息,请查看基准的网站。 内容 介绍 在没有监督的情况下,能够学习图像的密集语义表示是计算机视觉中的重要问题。 然而,尽管它具有重要意义,但这个问题仍未得到很好的探索,只有少数例外考虑了在具有狭窄视觉域的小规模数据集上的无监督语义分割。 我们首次尝试解决传统上用于监督案例的数据集(例如PASCAL VOC)上的问题。 为了实现这一点,我们引入了一种新颖的两步框架,该框架在对比优化目标中采用预定的先验知识来学习像素嵌入。 此外,我们讨论了具有包含有关对象或其部分信息的先验的重要性,并讨论了以无监督方式获得此类先验的几种可能性。 特别是,我们在将像素组合在一起之前采用中级视觉效果,并对比所获得的对象蒙版Kong眼。 因此,我们将方法命名为MaskCon
1
PyTorch上的语义分割 该项目旨在为使用PyTorch的语义细分模型提供简洁,易用,可修改的参考实现。 安装 # semantic-segmentation-pytorch dependencies pip install ninja tqdm # follow PyTorch installation in https://pytorch.org/get-started/locally/ conda install pytorch torchvision -c pytorch # install PyTorch Segmentation git clone https://github.com/Tramac/awesome-semantic-segmentation-pytorch.git # the following will install the lib with symb
2021-10-11 16:39:42 653KB pytorch semantic-segmentation Python
1
圆柱和非对称3D卷积网络用于LiDAR分割 我们的工作“用于LiDAR分割的圆柱和非对称3D卷积网络”的源代码 消息 2021-03 [NEW :fire: ] Cylinder3D被接受为CVPR 2021的口头报告 2021-01 [NEW :fire: ] Cylinder3D在SemanticKITTI多扫描语义分割的排行榜中排名第一 2020-12 [NEW :fire: ] Cylinder3D实现了激光雷达nuScenes分割的挑战的第2位,用米欧= 0.779,fwIoU = 0.899和FPS = 10Hz的。 2020-12我们发布了具有nuScenes数据集支持的Cylinder3D新版本。 2020-11我们初步发布了Cylinder3D--v0.1,支持在SemanticKITTI和nuScenes上进行LiDAR语义分割。 2020-11我们的工作实现了SemanticKITT
1
UNet / FCN PyTorch 该存储库包含U-Net和FCN的简单PyTorch实现,这是Ronneberger等人提出的深度学习细分方法。 和龙等。 用于训练的合成图像/遮罩 首先克隆存储库并cd到项目目录。 import matplotlib . pyplot as plt import numpy as np import helper import simulation # Generate some random images input_images , target_masks = simulation . generate_random_data ( 192 , 192 , count = 3 ) for x in [ input_images , target_masks ]: print ( x . shape ) print ( x . m
1
具有交叉一致性训练 (CCT) 的半监督语义分割 , 本 repo 包含 CVPR 2020 论文的官方实现:Semi-Supervised Semantic Segmentation with Cross-Consistecy Training,它采用了传统的半监督学习的一致性训练框架进行语义分割,扩展到弱监督学习和在多个域。 强调 (1) 语义分割的一致性训练。 我们观察到,对于语义分割,由于任务的密集性,集群假设更容易在隐藏表示而不是输入上强制执行。 (2) 交叉培训。 我们为半监督语义分割提出了 CCT(Cross-Consistency Training),我们在其中定义了许多新的扰动,并展示了对编码器输出而不是输入执行一致性的有效性。 (3) 使用来自多个域的弱标签和像素级标签。 所提出的方法非常简单灵活,并且可以很容易地扩展到使用来自多个域的图像级标签和像素级标签。 要求
1
语义分割 介绍 该项目旨在使用完全卷积网络(FCN)标记图像的像素(也称为语义分割)。 它使用VGG-16实现转移学习并提取layer7的输出,然后使用1x1卷积,随后是几个转置的卷积层,并与跳过连接相结合以进行升采样。 网络架构如下: 设置 显卡 请确保您已启用Tensorflow GPU。 如果您的系统上没有GPU,则可以使用AWS或其他云计算平台。 该项目使用 。 框架和包装 确保已安装以下设备: 数据集 从下载。 将数据集提取到data文件夹中。 这将创建文件夹data_semantics其中包含所有培训的测试图像。 标签格式 名称ID类别'未标记',0,'无效' '自我车辆',1,'无效' '校正边界',2,'无效' '超出投资回报率',3,'无效' '静态',4,'无效' '动态',5,'无效' 'ground',6,'void' '道路',7,'地面' 人行道,8,地面'停车
2021-09-05 19:57:59 40.99MB Python
1
Panoptic-DeepLab(CVPR 2020) Panoptic-DeepLab是最先进的自下而上的全景分割方法,其目的是为输入图像中的每个像素分配语义标签(例如人,狗,猫等)实例标签(例如ID为1、2、3等)到属于事物类别的像素。 这是我们基于Detectron2的CVPR2020论文的PyTorch重新实现: 。现在,此仓库中还支持使用DeepLabV3和DeepLabV3 +的细分模型! 消息 [2021/01/25]在COCO实验的旧配置文件中发现了一个错误(对于COCO,需要将MAX_SIZE_TRAIN从640更改为960)。现在,我们还复制了COCO的结果(35.5 PQ)! [2020/12/17]支持COCO数据集! [2020/12/11]在Panoptic-DeepLab的Detectron2版本中支持DepthwiseSeparableConv2d。现
2021-09-01 15:02:00 2.62MB pytorch bottom-up semantic-segmentation cityscapes
1
深度双分辨率网络,可实时,准确地对道路场景进行语义分割 介绍 这是的非官方代码。 在单个2080Ti GPU上,DDRNet-23-slim在109 FPS的Cityscapes测试装置上可产生77.4%的mIoU,从而在城市景观和camvid的精度和速度之间实现了最先进的权衡,而无需使用推理加速和额外的数据!在CamVid测试装置上以230 FPS时有74.4%的mIoU。 该代码主要来自和,感谢他们的工作。 要求 在这里列出了实验中使用的软件和硬件 pytorch == 1.7.0 3080 * 2 cuda == 11.1 快速开始 0.数据准备 您需要下载数据集。 并重命名cityscapes文件夹,然后将数据放在data文件夹下。 └── data ├── cityscapes └── list 1.预训练模型 从imagenet上下载预训练模型或从那里下载分割模
1
RandLA-Net-pytorch 该存储库包含的实现。 我们现在仅支持SemanticKITTI数据集。 (欢迎大家共同发展,提高公关意识) 我们的模型几乎与原始实现一样好。 (验证集:我们的52.9%的mIoU与原始的53.1%) 我们将pretrain-model放置在目录中。 表现 验证集结果(seq 08) 与原始实施比较 模型 密欧 原始Tensorflow 0.531 我们的Pytorch实施 0.529 每课时 密欧 车 自行车 摩托车 卡车 其他车辆 人 骑自行车的人 电单车司机 路 停车处 人行道 其他地面 建造 栅栏 植被 树干 地形 极 交通标志 52.9 0.919 0.122 0.290 0.660 0.444 0.515 0.676 0.000 0.912 0.421 0.759 0.001 0.878 0.354
1