还在摸索怎么用detectron2训练自己数据集的朋友们下来看看,相信不会让你们失望的,有问题提出,一起学习
1
人为分割PyTorch 在PyTorch中实现的人体分割,/代码和。 支持的网络 :骨干 (所有aphas和扩张), (所有num_layers) :骨干网 (num_layers = 18,34,50,101), :骨干网 (num_layers = 18) :主干网 (num_layers = 18、34、50、101) ICNet :主干网ResNetV1 (num_layers = 18、34、50、101) 要评估体系结构,内存,转发时间(以cpu或gpu表示),参数数量以及网络的FLOP数量,请使用以下命令: python measure_model.py 数据集 人像分割(人/背景) 自动人像分割以实现图像风格化:1800张图像 监督人:5711张图片 放 在此存储库中使用了Python3.6.x。 克隆存储库: git clone --re
2022-03-07 19:11:36 4.42MB deep-learning pytorch unet semantic-segmentation
1
WTS WTS:使用分割模型对遥感土地覆盖分类的弱监督学习框架 介绍 这是WTS监督学习框架用于使用分割模型进行遥感土地覆盖分类的实现,其中SRG算法指的是 。 引用该存储库 如果您发现此代码对您的研究有用,请考虑将其引用: @article{wts, title={WTS: A weakly towards strongly supervised learning framework for remote sensing land cover classification using segmentation models}, author={Wei Zhang, Ping Tang, Thomas Corpetti and Lijun Zhao}, booktitle={Remote Sensing}, pages={},
2021-11-22 20:06:08 8.55MB Python
1
移动网 移动U-NET语义分割。 使用process_video文件每帧运行约40毫秒
1
单眼深度估计 该存储库为NYU深度数据集V2提供了单眼深度估计的简单PyTorch Lightning实现。 依存关系 Docker 20.10.2 1.28.3 的Python 3.8.0 0.1.3 1.6.0 1.2.5 2.0.6 偏见0.10.25 有关其他库的版本,请参见 。 方法 细分模型+ *深度损失 *我们使用 。 骨干 类型 三角洲1 三角洲2 三角洲3 lg10 abs_rel 湄 微软 efficiencynet-b7 UnetPlusPlus 0.8381 0.9658 0.9914 0.0553 0.1295 0.3464 0.3307 efficiencynet-b7 FPN 0.8378 0.9662 0.9915 0.0561 0.1308 0.3523 0.3308 高效网-b4 U
2021-10-20 15:46:59 22KB docker docker-compose pytorch nyu2
1
USSS_ICCV19 ICCV 2019接受通用半监督语义分割代码。 全文见 。 要求 Python> = 2.6 PyTorch> = 1.0.0 ImageNet预训练的模型是从的存储库下载的。 数据集 城市景观: : IDD: : 怎么跑 python segment.py --basedir --lr 0.001 --num-epochs 200 --batch-size 8 --savedir --datasets [ ..] --num-samples --alpha 0 --beta 0 --resnet --model drnet 致谢 大量代码是从Dilated Residual Networks( )和IDD Dataset( )的官方代码版本中大量借用的。
1
unity 分割模型...................................Fractured
2021-08-15 16:44:34 38.67MB unity 分割模型
1
Semantic-Segmentation语义分割模型在Keras当中的实现 大通知! 语义分割就要重置了!现在已经重置的有PSPnet。 PSPnet-Keras重制版如下: 源码路径: 视频地址: PSPnet-Pytorch重制版如下: 源码路径: 视频地址: Unet-Keras重制版如下: 源码路径: 视频地址: 目录 所需环境 tensorflow-gpu==1.13.1 keras==2.1.5 注意事项 该代码是我早期整理的语义分割代码,尽管可以使用,但是存在许多缺点。大家尽量可以使用重制版的代码,因为重制版的代码里面增加了很多新内容,比如添加了Dice-loss,增加了更多参数的选择,提供了VOC预训练权重等。 在2021年1月28重新上传了该库,给代码添加了非常详细的注释,该库仍然可以作为一个语义分割的入门库进行使用。 在使用前一定要注意根目录与相对目录的选取,这样才能
2021-07-12 09:19:17 21.82MB 附件源码 文章源码
1
C-V分割模型的 窄带法实现,时间快,文件中有仿真的图,和仿真结果!
2021-07-05 10:32:05 300KB C-V分割模型 窄带法 水平集
1
实时语义分割模型集锦
2021-07-04 19:30:18 117.64MB Python开发-机器学习
1