影像透视变换-图片透视变换(投影变换) python处理图片,包括图片平移,图片旋转,图片缩放,图片倾斜,透视变换。选择图片中的四个关键点和将要变换的点,用于生成新的透视图 使用平移,缩放,翻转,旋转将一张图片转换为多张图片。 参考链接: : 主框架用的这位大佬的代码,我加了透视变换和鼠标交互的功能。
2023-12-01 18:02:37 8KB Python
1
基于注意力机制的人体关键点隐式建模网络
2023-07-08 21:33:34 380.36MB 网络 网络
1
针对煤矿生产区域的监控视频较为模糊且人员行为类型复杂,常规行为识别方法的准确率较低的问题,提出了一种基于动态注意力与多层感知图卷积网络(DA-GCN)的煤矿人员行为识别方法。采用Openpose算法提取输入视频的人体关键点,得到3个维度、18个坐标的人体关键点信息,降低模糊背景信息的干扰;通过动态多层感知图卷积网络(D-GCN)提取人体关键点的空间特征,通过时间卷积网络(TCN)提取人体关键点的时间特征,提高网络对不同动作的泛化能力;使用动态注意力机制,增强网络对于动作关键帧、关键骨架的注意力程度,进一步缓解视频质量不佳带来的影响;使用Softmax分类器进行动作分类。通过场景分析,将井下行为分为站立、行走、坐、跨越和操作设备5种类型,构建适用于煤矿场景的Cumt-Action数据集。实验结果表明,DA-GCN在Cumt-Action数据集的最高准确率达到99.3%,最高召回率达到98.6%;与其他算法相比,DA-GCN在Cumt-Action数据集和公共数据集NTU-RGBD上均具有较高的识别准确率,证明了DA-GCN优秀的行为识别能力。
1
用于FashionAI关键点检测的卷积姿态机(CPM)和特征金字塔网词(FPN)的Pytorch实现 该代码引用了github上其他人的一些想法,并且基于的纸上。 最终排名是56,得分为6.38%。 对于大一新生来说,这对我来说还不错:)您可以将代码作为基准解决方案。 有一些切实可行的结果,如下所示: 使用ResNet-50的CPM + FPN输出示例 您可以按照以下步骤重现我的结果。 步骤1 相依性 Python 3.5版 脾气暴躁的 大熊猫 火炬 cv2 tqdm Keras(TensorFlow后端) 资料准备 下载并将文件放入以下结构中: 步骤1:确保图像数据和注释位于折叠的“数据”中。数据目录结构如下: DATA_DIR/ |-- test/ | |-- test.csv | |-- Images/ | | |
2023-03-23 15:40:59 1.19MB Python
1
第一个代码“vijay_ti_1”将提取图像中每个关键点的 SIFT 关键点和描述符向量。 对于此代码,只需要一张输入图像,在执行完整的 SIFT 算法后,它将生成关键点关键点位置及其方向和描述符向量。 第二个代码 'vijay_ti_2' 将首先生成原始图像的关键点,然后要求用户选择是否要增加图像强度或减少它或更改 sigma(scale) 的值或是否要旋转图像。 因此,转换后的图像将作为第二张图像并计算其关键点和描述符。在最后一步,此代码将给出这两个图像之间匹配的关键点数及其在命令窗口中的百分比。
2023-03-13 16:19:07 4.3MB matlab
1
原模型为pytorch转后得到的onnx文件hrnet_coco_w32_256x192.onnx,用的coco val数据集做的量化,输入为(1,3,256,192),输出为(1,17,64,48)的关键点热图,后面通过高斯化函数可得到关键点,结果经测试。
2023-03-02 14:45:24 30.66MB 量化 hrnet 人体姿态估计 人体关键点
1
CenterNet:用于对象检测的关键点三元组
2023-02-20 16:34:21 1.55MB Python开发-机器学习
1
facial_keypoint 用于面部关键点检测的Kaggle数据集。 清理数据,将图像列分离出一个数组以读取RGB值,然后将数据集分为X和Y值进行学习,使用20%的比例进行测试。 最后,实现了一个具有三个卷积层和两个密集层以及最终密集层作为输出的卷积神经网络。 尚未实施:Tensorboard以提高模型的准确性和损失。
2023-02-07 14:35:07 62KB JupyterNotebook
1
OpenPose代表了第一个在单幅图像上联合检测人体、手部、面部和足部关键点(共 135 个关键点)的实时多人系统。 特征 主要功能: 2D实时多人关键点检测: 15、18 或25 关键点身体/脚关键点估计,包括6 脚关键点。运行时对检测到的人数不变。 2x21-keypoint 手部关键点估计。运行时间取决于检测到的人数。有关运行时不变的替代方案,请参阅OpenPose 训练。 70-keypoint 人脸关键点估计。运行时间取决于检测到的人数。有关运行时不变的替代方案,请参阅OpenPose 训练。 3D实时单人关键点检测: 来自多个单一视图的 3D 三角测量。 已处理 Flir 相机的同步。 兼容 Flir/Point Grey 相机。 校准工具箱:失真、内在和外在相机参数的估计。 单人跟踪以进一步加速或视觉平滑。 输入:图像、视频、网络摄像头、Flir/Point Grey、IP 摄像头,并支持添加您自己的自定义输入源(例如深度摄像头)。 输出:基本图像+关键点显示/保存(PNG,JPG,AVI,...),关键点保存(JSON,XML,YML,...),关键点作为数组类,
2023-01-04 17:28:54 46.7MB OpenPose CV Caffe 检测库
1
基于yolov5和openpose人体骨骼关键点实现的摔倒姿态识别检测系统源码+模型+项目操作说明(可训练其他姿态模型).zip 【项目介绍】 主要使用yolov5算法与openpose算法模型相结合,并非直接使用yolov5检测摔倒和站立两种状态! 项目中提供了yolov5s.pt人形检测模型(可自己再训练),摔倒姿态openpose.git模型(可训练其他姿态模型)。 通过open pose 可以获得人体的关键点图 提供了项目操作说明文档,按照操作配置好环境,修改路径运行即可。另外可以自定义修改摔倒检测阈值、判别条件等,代码关键位置有注释解释!容易理解~ 使用过程有相关问题,可以留言或者私信!请放心下载!!!