简介 本数据集为目前已知最大的人像matting数据集,包含34427张图像和对应的matting结果图。 数据集由北京玩星汇聚科技有限公司高质量标注,使用该数据集所训练的人像软分割模型已商用。 数据集中的原始图片来源于Flickr、百度、淘宝。经过人脸检测和区域裁剪后生成了600*800的半身人像。 clip_img目录为半身人像图像,格式为jpg;matting目录为对应的matting文件(方便确认matting质量),格式为png,您训练前应该先从png图像提取alpha图。例如使用opencv可以这样获得alpha图: in_image = cv2.imread('png图像文件路径', cv2.IMREAD_UNCHANGED) alpha = in_image[:,:,3] 下载地址 链接: 提取码:dzsn other url: 数据集截图 matting图: 手机端视频人
2021-12-06 10:43:31 21.7MB
1
PCL库,LiDAR,Semantic 3D Object Maps for Everyday Manipulation in Human Living Environments,Ph.D
2021-12-03 10:42:41 59.99MB PCL LiDAR
1
ROS Qt Deskotp GUI App Contributors This project exists thanks to all the people who contribute. 简体中文 | 使用qt5实现ros机器人人机界面 注意!未经作者的许可,此代码仅用于学习,不能用于其他用途。 本仓库以分支的形式,长期维护各种有趣的ROS 可视化项目,持续更新中..... 欢迎在issues提交bug 注意!主分支(master)已不再维护librviz功能,使用Qt自行绘制实现一些图层显示,如需librviz功能请切换分支或 一,菜单 功能介绍 开源协议 相关教程及交流群 二,安装教程 1,首先安装ros对qt pkg的支持(非必须) melodic需要换成自己的ROS版本号 sudo apt-get install ros-melodic-qt-create sudo apt-
2021-11-30 06:09:08 3.13MB C++
1
包:com.unity.demoteam.digital-human 用于从The Heretic实现数字人的技术功能库。 要求 Unity 2019.3.12f1 + HDRP 7.3.1以上 特征 面部动画系统 用于4D片段导入和处理的工具。 (当我们说4D时,是指随着时间的推移捕获的一系列网格。) 具有时间轴集成的4D剪辑渲染。 4D框架配件允许从面部钻机进行细节注射。 集成了Snappers的面部钻机。 直接在Unity中姿势面部装备 皮肤附着系统 驱动与动态变形皮肤有关的网格和变换。 用于驱动眉毛,睫毛,胡茬和逻辑标记。 由C#Job System和Burst编译器加速。 着色器和渲染 如《异端》中所见,皮肤/眼睛/牙齿/头发的完整着色器图。 跨材质普通缓冲模糊(撕裂线)的自定义传递。 自定义标记驱动的眼睛和牙齿咬合。 用法 在Packages/manifest.json中将
2021-11-26 09:30:31 1.44MB C#
1
关联边缘,具有解析姿势 这是CVPR2020接受的论文“ 的Pytorch实现。 我们提出一种利用异类非本地(HNL)网络的相关分析机(CorrPM),以捕获来自人的边缘,姿势和分析的特征之间的相关性。 要求 火炬0.4.1 Python 3.6 InPlace-ABN的编译基于 。 执行 数据集 请下载数据集,并使其遵循以下结构: |-- LIP |-- TrainVal_pose_annotations/LIP_SP_TRAIN_annotations.json |-- images_labels |-- train_images |-- train_segmentations |-- val_images |-- val_segmentations |-- train_id.txt
2021-11-24 20:51:26 314KB pytorch cvpr human-parsing semantic-segmantation
1
人类活动识别 Galvanize顶峰项目,用于使用UCI机器学习存储库智能手机数据集对日常生活中的人类活动进行分类。 动机和目标: 识别日常生活活动(ADL)的创新方法是开发更具交互性的人机应用程序必不可少的输入部分。 通过解释从运动,位置,生理信号和环境信息中得出的属性,开发了理解人类活动识别(HAR)的方法。 该项目探索了用于对已发布数据集( )进行ADL分类的最佳机器学习方法。 数据包含一组佩戴一组内置内置传感器(加速度计,陀螺仪和磁力计)的安装在腰部的智能手机,并进行一组ADL(站立,坐着,躺着,走路,上楼和走下楼)的记录。 将机器学习方法的有效性与已发布的多类硬件友好支持向量机(MC-HF-SVM)识别精度进行了比较。 方法: 将数据(具有ADL平衡561功能的10299个样本)按比例分别分为70%和30%分为训练集和测试集。 该分区是随机的。 训练数据用于训练不同的分类器
2021-11-15 21:24:54 55.41MB Python
1
网上人类活动识别 使用与用户无关的基于机器学习的算法进行在线人类活动识别。 使用UCI数据集-“使用智能手机数据集的人类活动识别”来完成每种方法的学习。 测试是通过使用加速度计和陀螺仪收集的实时数据完成的。
2021-11-15 20:59:06 205KB Python
1
openpifpaf 经过Linux,MacOS和Windows的持续测试: : OpenPifPaf:用于语义关键点检测和时空关联的复合字段( ,( ,( ,2021年。 许多基于图像的感知任务可以公式化为检测,关联和跟踪语义关键点,例如人体姿势估计和跟踪。 在这项工作中,我们提出了一个通用框架,该框架可以在单个阶段中共同检测并形成时空关键点关联,这使其成为第一个实时姿势检测和跟踪算法。 我们提出了一种通用的神经网络体系结构,该体系结构使用Composite Fields来检测和构建时空姿势,该姿势是一个单独的连接图,其连接点是多个帧中的语义关键点(例如人的身体关节)。 对于时间关联,我们引入了时间复合关联字段(TCAF),它需要扩展的网络体系结构和训练方法,而不是以前的复合字段。 我们的实验显示出竞争准确性,同时在多个公开可用的数据集(例如COCO,CrowdPose以及
1
2018年11月 使用智能手机数据集的人类活动识别 资料库概述: 该项目旨在建立一个模型,该模型根据智能手机的Sensor数据预测诸如步行,上楼,下楼,坐着,站着和躺下等人类活动。 仓库有3个ipython笔记本1 :数据预处理和探索性数据分析2 :具有特征数据的机器学习模型3 :基于原始时间序列数据的LSTM模型所有代码都是用python 3编写的依赖 张量流 凯拉斯 麻木 大熊猫 matplotlib 海生的 斯克莱恩 itertools 约会时间 介绍: 每个现代的智能手机都有许多。 我们对加速度传感器和陀螺仪这两种传感器感兴趣。 借助传感器记录数据这是一个6类分类问题,因为我们有6个活动要检测。 该项目分为两部分,第一部分训练,调整和比较Logistic回归,线性支持向量分类器,RBF(径向基函数)SVM分类器,决策树,随机森林,梯度提升决策树模型,并使用领域专家提
2021-11-13 08:29:30 84.62MB JupyterNotebook
1
基于CSI(信道状态信息)的人体运动检测是一个热门的研究课题。 许多研究人员开始关注它。 通过提取CSI的幅度和相位,可以将其应用于检测人体运动。 在本文中,我们采用阶段来检测入侵。 首先,我们使用线性变换来消除不同副载波的相位偏移。 随后,我们为短期案例(SES)和长期案例(LES)定义了两个参考点。 前者用于检测某人是否在室内走动,而后者用于检测该人是否在连续走动。 我们使用普通的WiFi设备实施了我们的方法,并评估了我们算法在实际环境中的性能。 实验结果表明,该算法具有很高的准确性。
2021-11-12 16:13:33 964KB CSI; phase; effectsize; human
1