学习机器人阻抗控制的一本不错的书籍,里面详细介绍了阻抗控制的概念以及具体的例子
2021-09-18 15:56:29 6.56MB Impedance robot Impedance Co
1
该脚本将 UCI(加州大学欧文分校)使用智能手机数据集的人类活动识别作为输入。 这是一组对 30 名受试者进行的一组实验,他们在佩戴智能手机的情况下进行六项活动(步行、爬星、步行、坐下和站立)。 实验测量(总共 561 个)涉及从手机记录的加速度计和陀螺仪数据。 该脚本输出一个文本表,总结每个主题和每个活动的这些测量值。 使用了两个原始数据集: 惯性数据集,包括三轴加速度和角速度时间序列,以 50 Hz 的速率采样。 这些是在每次活动期间为每个受试者获得的。 它们被用来生产以下产品: 一个包含 561 个元素的运动“特征”向量,即在时域和频域的间隙数据集上计算的变量。 数据集分为“训练”和“测试”集。 下载并解压缩数据集后(脚本运行必不可少),可以在以下目录中找到这些原始数据集: intertial datasets: test/Inertial Signals, train/In
2021-09-17 16:46:49 4KB R
1
人体跌倒检测与追踪 使用Tiny-YOLO oneclass检测帧中的每个人,并使用获取骨骼姿势,然后使用模型从每个人跟踪的每30帧中预测动作。 现在支持7种动作:站立,行走,坐着,躺下,站起来,坐下,跌倒。 先决条件 Python> 3.6 火炬> 1.3.1 原始测试运行在:i7-8750H CPU @ 2.20GHz x12,GeForce RTX 2070 8GB,CUDA 10.2 数据 该项目已经训练了一个新的Tiny-YOLO oneclass模型,以仅检测人的物体并减小模型的大小。 使用旋转增强的人员关键点数据集进行训练,以在各种角度姿势中更可靠地检测人员。 对于动作识别,使用来自跌倒检测数据集(,家庭)的数据,通过AlphaPose提取骨骼姿势,并手动标记每个动作帧,以训练ST-GCN模型。 预训练模型 Tiny-YOLO oneclass- , SPPE
2021-09-10 13:12:59 27.72MB pytorch sort pose-estimation st-gcn
1
手肘法matlab源码快速人体姿势估计CVPR2019 介绍 这是的官方pytorch实现。 在这项工作中,我们专注于两个问题 如何使用与模型无关的方法来减小模型大小和计算。 如何提高简化模型的性能。 在我们的论文中 我们通过减少网络的宽度和深度来减少模型的大小和计算量。 提出快速姿势精馏( FPD )以改善简化模型的性能。 MPII数据集上的结果证明了我们方法的有效性。 我们使用HRNet代码库重新实现了FPD,并在COCO数据集上提供了额外的评估。 我们的方法(FPD)可以在没有地面标签的情况下工作,并且可以利用未标记的图像。 对于MPII数据集 我们首先训练了一个教师模型(沙漏模型,堆栈= 8,num_features = 256,90.520 @ MPII PCKh@0.5)和一个学生模型(沙漏模型,堆栈= 4,num_features = 128,89.040 @ MPII PCKh@0.5)。 然后,我们使用教师模型的预测和真实标签来共同监督学生模型(沙漏模型,堆栈= 4,num_features = 128,87.934 @ MPII PCKh@0.5)。 我们的实验显示
2021-09-10 09:29:16 378KB 系统开源
1
在PyTorch中使用HigherHRNet进行多人人体姿势估计 这是《 》论文的非官方实现。 该代码是的简化版本,同时考虑了易用性。 该代码与完全兼容。 它同时支持Windows和Linux。 该存储库当前提供: 在PyTorch(> = 1.0)中稍高一点的HigherHRNet实现-与官方权重( pose_higher_hrnet_* )兼容。 一个简单的类( SimpleHigherHRNet )加载HigherHRNet网络以进行自下而上的人体姿势估计,加载预先训练的权重,并对单个图像或一批图像进行人工预测。 支持多GPU推理。 通过设计实现多人支持(HigherHRNet是一种自下而上的方法)。 运行实时演示程序的参考代码,该演示程序从网络摄像头或视频文件中读取帧。 该存储库是根据存储库。 不幸的是,与HRNet相比,HigherHRNet的结果和性能有些令人失
1
delmia simulation 详细过程 详细仿真过程,有实例
2021-09-02 12:53:37 3.25MB delmia simulation 详细过程
1
真棒人类活动识别 1.数据集 机会[ ] PAMAP2 [ ] 2.带代码的文件 2020年 潜在的独立激励,用于基于传感器的通用跨人活动识别[论文] []( AAAI 2021 ) 通过自适应时空转移学习进行跨数据集活动识别[] [代码]( IMWUT / ubicomp ) MARS:具有多域深度学习模型的用于人类活动识别的虚拟和真实可穿戴混合传感器[] [code]( arXiv ) 从可穿戴设备向人类活动的深度聚集[] [代码]( ISWC / ubicomp ) [UDA4HAR]进行无监督的领域自适应以进行鲁棒的人类活动识别的系统研究[] [代码]( IMWUT / ubicomp ) 用于活动识别的对抗性多视图网络[] [代码]( IMWUT / ubicomp ) 使用可穿戴设备进行人类活动分析的弱监督多任务表示学习[] [代码]( IMWUT / ubico
2021-08-27 16:47:34 5KB
1
信息安全_数据安全_Product Security Meets Human Lif 金融安全 安全测试 法律法规 系统安全 自动化
2021-08-22 13:00:25 177KB 安全对抗 安全人才 APT 数据安全
matlab代码输入如何换行符曾经想知道您的智能手机/智能手表如何识别您正在进行的活动。 它知道您何时走路,奔跑或爬楼梯。 在科学界,这就是所谓的HAR(人类活动识别)。 该项目已作为我的数据科学硕士课程中模块任务之一的一部分。 我们将构建一个神经网络,该网络可以使用移动传感器记录的数据来识别我们进行的三项活动。 神经网络的人类活动识别 从收集人类活动数据到构建神经网络对活动进行分类的端到端项目 #创建神经网络预测模型的步骤: 数据采集 确定手头的问题是应允还是分类问题 数据探索和预处理 将数据分为测试,验证和培训数据集 将每个数据集拆分为输入(X)和输出(y)-将它们转换为numpy数组 开发一个简单的NN顺序模型 调整超参数(使用像GridSearchCV这样的模块) 使用训练和验证数据集编译并拟合曲调模型 用模型预测测试数据 根据问题(回归/分类)计算性能指标 数据采集 借助MATLAB应用程序,可通过智能手机完成数据收集。 在应用程序中有一个称为“传感器”的部分,可以打开智能手机上所有可用的传感器。 选择传感器后,可以按下“记录”按钮,并且可以在所需的分钟数内执行每个活动。 不
2021-08-22 02:38:52 3.74MB 系统开源
1