CCNet-Pure-Pytorch 用于纯Pytorch中语义分割的Criss-Cross Attention(2d&3d),具有更快,更精确的实现方式。 更新 **** 2021/03:纯pytorch实现3D CCNET模块的三种被释放 。 您可以在和检查其正确性 介绍 我非正式地重新实现了纯Pytorch中的以便在不同版本和环境下实现更好的兼容性。 以前的许多开源项目都在Pytorch上使用了Cuda扩展,因此存在兼容性和精度损失的问题。 此外,当我们设置cudnn.benchmark = True时,Pytorch可能无法优化和加速Cuda扩展。 为了解决这些问题,我基于的张量变换在CC.py中设计了一个Criss-Cross Attention操作,该操作并行执行,并且在向前结果和向后渐变中显示出更快的速度和更精确的效果。 我的运作和表现 不需要CUDA扩展。 以前的“ Cr
2021-11-18 14:16:15 3.96MB tensorflow pytorch attention ccnet
1
快速语义分割 该存储库旨在为PyTorch中的移动设备提供准确的实时语义分段代码,并在Cityscapes上提供预训练的权重。 这可用于在各种现实世界的街道图像上进行有效的分割,包括Mapillary Vistas,KITTI和CamVid等数据集。 from fastseg import MobileV3Large model = MobileV3Large . from_pretrained (). cuda (). eval () model . predict ( images ) 这些模型是MobileNetV3 (大型和小型变体)的实现,具有基于LR- ASPP的修改后的细分头。 顶级型号在Cityscapes val上能够达到72.3%的mIoU精度,而在GPU上以高达37.3 FPS的速度运行。 请参阅下面的详细基准。 当前,您可以执行以下操作: 加载预训练的Mo
1
unet unet主要用于语义分割, 这里是一个细胞边缘检测的例子, 数据集比较简单。 unet的网络结构, 因像字母‘U’而得名。 这里有一篇关于unet的 [论文](U-Net: Convolutional Networks for Biomedical Image Segmentation), 论文里面的网络结构如下: 说一下这个网络: 输入572×572×1, 输出:388×388×2, 大小不一样。 主要是因为卷积的过程中, 每次卷积会减小, 在copy and crop中, 也会减小。 我这里设计的网络, 并没有像上图的网络一样, 原封不动的实现出来, 而是借助vgg网络结构来实现的。 看上图, 我们发现, unet的前半部分采用2层卷积+一层池化的设计方式, 这一点和vgg16的前半部分很相似, 因此, 我在实现的过程中, 采用了vgg16的前10层。 网络设计 def vg
2021-11-18 09:37:47 13.13MB keras unet Python
1
pytorch-3dunet PyTorch实施3D U-Net及其变体: 基于3D U-Net的标准3D U-Net ÖzgünÇiçek等人。 基于残差3D U-Net。 该代码允许对U-Net进行以下方面的训练:语义分割(二进制和多类)和回归问题(例如降噪,学习解卷积)。 二维U网 也可以训练标准2D U-Net,有关示例配置,请参见 。 只需确保将单例z维保留在H5数据集中(即(1, Y, X)而不是(Y, X) ),因为数据加载/数据扩充始终需要3级张量。 先决条件 Linux NVIDIA GPU CUDA CuDNN 在Windows上运行 该软件包尚未在Windows上进行过测试,但是有报告称该软件包已在Windows上使用。 要记住的一件事:在使用CrossEntropyLoss进行训练时:配置文件中的标签类型应该从long更改为int64 ,否则会出现错误:
2021-11-16 15:48:36 30.49MB pytorch unet semantic-segmentation volumetric-data
1
“语义分割”处理的是像素级分类问题,是计算机视觉中的基本任务,在自动驾驶、地物检测以及医疗辅助等许多领域,有着巨大的应用价值。常见的基于深度神经网络的语义分割模型,有U-Net,SegNet,PSPNet,以及DeepLab系列,(含论文出处和代码链接)。后续还将进一步整理完善哟!
2021-11-15 22:42:09 2.27MB Semantic segment U-net SegNet
1
移动网 移动U-NET语义分割。 使用process_video文件每帧运行约40毫秒
1
CARLA数据集上的语义分割 介绍 该项目针对Lyft&Udacity提出的图像语义分割挑战,该算法以使用录制的视频为基准,CARLA是用于自动驾驶研究的开源模拟器。 这是此项目的验尸。 本文将讨论以下3个主题: 我如何设置项目的体系结构。 有哪些挑战,我要如何解决? 这个项目有哪些潜在的改进? 现在,让我们开始吧! 项目架构 全卷积网络 我在这个项目中使用了全卷积网络。 我选择了ResNet。 我首先使用框架。 全卷积网络的思想是使用没有全连接层的神经网络,这意味着所有层都是卷积层。 最后,添加一个卷积层以表示语义分割结果。 我在这个带有Tensorflow后端的项目中使用了Keras。 在适合网络之前,图像会被缩放为320x320,语义分割结果将被缩放回800x600。 其他可能的框架 在我详细介绍FCN之前,这里有一些我想出的其他解决方案。 名称 描述 遮罩R-CNN
2021-11-15 14:27:35 10.86MB Python
1
潍坊大棚语义分割数据集,基于0.6米谷歌地球影像。770张1600*1600像素的图片。由个人和朋友一起制作。此内容为网盘链接,文件大小4G。详细介绍见博客https://blog.csdn.net/weixin_40450867/article/details/119483258
2021-11-15 12:06:12 78B 语义分割 遥感 大棚
深度学习的语义分割在计算机视觉领域中有非常广阔的发展前景,但许多分割效果较好网络模型占用内存大和处理单张图片耗时长.针对这个问题,把Deeplab V3+模型的骨干网(ResNet101)的瓶颈单元设计为1D非瓶颈单元,且对空洞空间金字塔池化模块(Atrous Spatial Pyramid Pooling,ASPP)的卷积层进行分解.该算法能大幅度降低Deeplab V3+网络的参数量,提高网络推理速度.基于PASCAL VOC 2012数据集进行对比实验,实验结果显示改进网络模型拥有更快的处理速度和更优的分割效果,且消耗更少的内存.
2021-11-15 10:27:37 1.15MB 语义分割 Deeplab V3+模型 骨干网(ResNet101)
1
RESNet50+FCN train模型文件
2021-11-10 22:03:11 40KB 语义分割
1