人工解析的自我校正 开箱即用的人类解析表示提取器。 在第三项LIP挑战中,我们的解决方案在所有人工解析轨道(包括单个,多个和视频)中排名第一! 特征: 开箱即用的人类解析提取器,可用于其他下游应用程序。 在三个流行的单人人类解析数据集上进行预训练的模型。 训练和伪造的代码。 对多人和视频人的解析任务的简单而有效的扩展。 要求 conda env create -f environment.yaml conda activate schp pip install -r requirements.txt 简单的开箱即用提取器 最简单的入门方法是在您自己的图像上使用我们训练有素的SCHP模型来提取人工解析表示形式。 在这里,我们在三个流行的数据集上提供了最新的。 这三个数据集具有不同的标签系统,您可以选择最适合自己任务的数据集。 LIP( ) 进行LIP验证的费用:59.36
1
数据集包括:ATR(human parsing)、LIP(Looking into Person)、Multi-human-parsing数据集。基本山涵盖了所有国际公开的human parsing数据集!
2022-04-13 08:48:17 115B human datase
1
关联边缘,具有解析姿势 这是CVPR2020接受的论文“ 的Pytorch实现。 我们提出一种利用异类非本地(HNL)网络的相关分析机(CorrPM),以捕获来自人的边缘,姿势和分析的特征之间的相关性。 要求 火炬0.4.1 Python 3.6 InPlace-ABN的编译基于 。 执行 数据集 请下载数据集,并使其遵循以下结构: |-- LIP |-- TrainVal_pose_annotations/LIP_SP_TRAIN_annotations.json |-- images_labels |-- train_images |-- train_segmentations |-- val_images |-- val_segmentations |-- train_id.txt
2021-11-24 20:51:26 314KB pytorch cvpr human-parsing semantic-segmantation
1
免责声明 这是的经过修改的存储库。 请参阅原始存储库以获取更多详细信息。 联合身体分析和姿势估计网络(JPPNet) 梁晓丹,龚科,沉和林亮,“观察人:联合的身体分析和姿势估计网络和一个新的基准”,T- 介绍 JPPNet是人类解析和姿态估计建立在之上的国家的艺术深度学习方法 。 这个新颖的联合人类解析和姿态估计网络在端到端框架中结合了多尺度特征连接和迭代位置细化,以研究有效的上下文建模,然后实现彼此互利的解析和姿态任务。 这个统一的框架为人类分析和姿势估计任务实现了最先进的性能。 此发行版为T-PAMI 2018接受的中报告的关键模型成分提供了一个公开可用的实现。我们通过探索一种新颖的
2021-02-19 20:25:43 2.58MB ssl parsing human human-parsing
1