2015 cvpr上的一篇顶尖论文加源代码,关于多目标跟踪的。
2021-10-15 13:14:22 5.27MB MOT 论文加代码
1
使用PyTorch进行深度排序 更新(1-1-2020) 变化 修正错误 重构代码 通过在gpu上添加nms来进行准确检测 最新更新(07-22) 变化 错误修复(感谢@ JieChen91和@ yingsen1进行错误报告)。 使用批处理为每个帧提取特征,这会导致速度提速。 代码改进。 进一步的改进方向 在特定数据集而不是官方数据集上训练检测器。 在pedestrain数据集上重新训练REID模型以获得更好的性能。 将YOLOv3检测器替换为高级检测器。 欢迎对此存储库做出任何贡献! 介绍 这是MOT跟踪算法深度排序的一种实现。 深度排序与排序基本相同,但深度CNN模型添加了CNN模型以提取受检测器限制的人体部位图像中的特征。 这个CNN模型确实是一个RE-ID模型, 使用的检测器是FasterRCNN,原始源代码是 。 但是,在原始代码中,CNN模型是使用tensorf
2021-10-11 20:28:44 6.08MB pytorch sort cnn-model mot
1
FairMOT-master.zip,6月16号版本。下载自:https://github.com/ifzhang/FairMOT/tree/master/。
2021-10-03 12:11:00 43.58MB MOT 多类别单目标跟踪
1
一个MOT和BIN互转的工具,对于查看文件很有帮助
2021-08-07 15:42:27 23KB MOT2BIN
1
Evaluating Multiple Object Tracking Performance - The Clear MOT Metrics
2021-07-24 18:03:34 2.14MB Tracking
1
使用freescal mpc5602b做升级bootloader时需要合并mot文件,文档为自己总结的mot文件合并方法
2021-07-22 21:36:17 951KB mot freescal S-record
1
行人检测测试视频.flv
2021-07-14 19:06:37 104.51MB MOT_video
1
行人检测测试视频.avi
2021-07-14 19:06:37 158.67MB MOT_video
1
在官网上下载需要登陆,而注册却不能用商业邮箱注册,比如gmail、163和qq邮箱都用不了,所以下载起来挺麻烦的,分享出来给大家~
2021-07-05 15:00:42 25.86MB 目标跟踪 IoU_tracker
1
1.代码原理 该程序逐个读取帧图片,并对帧图片逐个进行多行人检测、多目标追踪。该方法是在线方法,将逐个读取帧图片改为逐帧读取视频即可实现在线处理视频。 1.1 多行人检测。 使用gluoncv中的预训练模型faster_rcnn_fpn_bn_resnet50_v1b_coco实现多行人检测,这一步骤见detect.py。 1.2 多目标追踪。 使用sort算法实现多目标追踪,详见https://github.com/abewley/sort。 2.代码部署 2.1 配置环境。 安装python==3.6,安装requirements.txt中要求的库(代码运行实际用到的库可能少于该文件,因此建议根据代码安装所需要的库)。 2.2 准备数据。 有两种方法准备数据: 2.2.1 将A-data文件夹放入当前目录,A-data文件夹中为Track1 Track2等子文件夹,每个子文件夹中存有.jpg帧图片。 2.2.2 修改run.py的第97行,将input_folder改为A-data文件夹所在路径。 2.3 运行程序run.py。 2.4 程序输出。 程序运行时会打印处理进度及估计的剩余时间。 程序运行完成后,会在当前目录下生成output文件夹,文件夹中存有Track1 Track2等数据集对应的检测结果,.avi文件用于观察检测追踪效果,.txt文件是用于提交的文本文件。 3.调参 3.1 多目标检测模型的选择。 修改detect.py第10行(YOLO.__init__)即可,可选模型及其名称、效果详见gluoncv官网 3.2 sort算法参数的修改。 run.py第34行,参数含义见sort.py。 3.3 将sort改为deepsort。 详见https://github.com/nwojke/deep_sort。 TODO:经尝试,经deep_sort处理后的检测框位置有变形、偏移现象,待解决。 3.4 输入输出路径见run.__main__
1