解锁!玩转 HelloGitHub 的新姿势.doc
2022-07-08 18:08:00 2.13MB 技术资料
行为分析Demo 视频效果:https://www.bilibili.com/video/BV1tB4y1W7mq?share_source=copy_web
2022-06-30 16:06:00 214.61MB 行为分析Demo 人体姿势识别
摄影培训课件:美姿设计-跳跃的姿势.ppt
2022-06-29 14:01:03 1.02MB 互联网
人体姿势识别 只用cpu fps40+ 实时识别、 多人实时检测 摄像头实时检测源代码 视频源测试源代码 视频源测试效果: https://www.bilibili.com/video/BV1UW4y167qu/
pose_iter_440000.caffemodel pose_iter_116000.caffemodel pose_iter_102000.caffemo 用官方的OpenPose包里的cmd命令下载第三方库文件和第三方包下载速度极其的慢,我下载好了,一起打包!
2022-06-23 22:55:14 453.98MB OpenPose
1
更新 更新22/01/2020您可能有兴趣关注以观看有关计算机视觉,机器学习,深度学习和机器人技术的每周视频。 Deepgaze 2.0的更新16/07/2019稳定版本可分支2.0 。 更新20/03/2019开始在Python / OpenCV 3.0上进行移植,请检查分支2.0以获取初步版本。 更新10/06/2017文章“使用卷积神经网络和自适应梯度方法在野外进行头部姿态估计”的PDF使用可在未来50天内免费下载 更新2017年4月6日,文章“使用卷积神经网络和自适应梯度方法在野外进行头部姿态估计”已在Pattern Recogntion(Elsevier)中接受发表。 Deepgaze CNN头部姿势估计器模块基于此工作。 更新31/05/2017新软件包。 该软件包包含用于显着性检测的算法的实现 更新22/03/2017修复了mask_analysis.py中的一个
2022-06-18 20:49:34 211.05MB motion-detection cnn particle-filter face-detection
1
视频图matlab代码OpenPose 介绍 OpenPose是一个使用OpenCV和Caffe *用C ++编写的实时多人关键点检测和多线程库,由,,,和编写。 它使用Caffe,但代码已准备好移植到其他框架(例如Tensorflow或Torch)。 如果您实现了其中任何一种,请提出拉取请求,我们将添加它! OpenPose代表了第一个实时系统,可以在单个图像上联合检测人体,手部和面部关键点(总共130个关键点) 。 另外,关于人体关键点估计的系统计算性能不依赖于图像中检测到的人的数量。 OpenPose可免费用于非商业目的,并且可以在这些条件下重新分发。 请参阅以获得更多详细信息。 联系我们用于商业目的。 库的主要功能: 多人15或18点人体姿势估计和渲染。 多人2x21关键点手势估计和渲染(即将在1-2个月内推出!)。 多人70关键点面部估计和渲染(大约2-3个月内即将推出!)。 灵活且易于配置的多线程模块。 图像,视频和网络摄像头阅读器。 能够以各种格式(JSON,XML,PNG,JPG等)保存和加载结果。 小型显示器和GUI,可简化结果可视化。 所有功能都包装在一个易于使用的
2022-06-06 15:07:50 49.21MB 系统开源
1
姿势识别源代码matlab 关键点检测 我们的模型使用带有递归模块的卷积神经网络从单个图像检测身体关键点。 下面,我们提供代码来训练和测试模型。 有关基于Web的演示,请访问。 软件依赖关系 您需要MATLAB和工具箱来运行此演示。 该演示已针对Matlab 2016a,CUDNN v5.1和cuda 8.0(使用Linux机器)进行了编译和测试。 训练模型(MPII人类姿势数据集) 通过执行getMPIIData_v3.m然后拆分MPIIData_V4.m下载并准备数据集。 数据准备需要几分钟才能完成。 输出是火车( MPI_imdbsT1aug0.mat , 〜3GB )和验证( MPI_imdbsV1aug0.mat ,〜0.3GB)文件。 执行trainBodyPose_example.m (需要设置一些参数,例如MatConvNet路径和GPU索引)。 要测试模型,请运行下面的演示,如下所述。 用一次循环迭代训练模型的参数: net = initialize3ObjeRecFusion(opts,2,0,'shareFlag',[0,1]); opts.derOutputs
2022-06-06 11:31:09 413KB 系统开源
1
为了提高用户对增强现实(AR)技术的满意度和服务的准确性,获取用户的准确位置很重要。 查找室外位置的常用技术是全球定位系统(GPS),室内精度较低。 因此,通过比较有关无线保真(Wi-Fi)的接入点(AP)信号的接收电平或使用蓝牙低功耗(BLE)标签来测量室内位置。 但是,Wi-Fi和蓝牙需要额外的硬件安装。 在本文中,所提出的估计用户位置的方法使用室内图像和室内坐标图,而无需额外的硬件安装。 室内图像具有从固定对象提取的几个特征点。 通过将特征点与用户图像的特征点进行匹配,我们可以通过从用户图像中获取六个或更多像素坐标并使用透视投影公式求解解决方案来获得用户在室内地图上的位置。 实验结果表明,仅使用软件即可在室内环境中更准确地获得用户位置,而无需额外安装硬件。
1
通过隐式模块化视听表示进行姿势可控的会说话脸生成(CVPR 2021) ,孙亚生,,,和。 | | 我们提出了可姿势控制的视听系统(PC-AVS) ,该系统可在驱动带有声音的任意说话的面部时实现自由姿势控制。 代替从音频中学习姿势运动,我们利用另一个姿势源视频来仅补偿头部运动。 关键是设计一种隐含的低维姿势代码,该代码不包含嘴巴形状或身份信息。 通过这种方式,将视听表示模块化为三个关键因素的空间:语音内容,头部姿势和身份信息。 要求 使用Python 3.6和 1.3.0。 基本要求在“ requirements.txt”中列出。 pip install -r requirements.txt 快速入门:生成演示结果 下载预训练的检查点。 创建默认的文件夹./checkpoints并解压demo.zip在./checkpoints/demo 。 其中应该有5 pth 。 解压缩mi
2022-05-18 16:34:32 28.48MB Python
1