pytorch实现基于LSTM的高速公路车辆轨迹预测源码+数据集.zip 第1步:轨迹数据滤波,将原始US101和I-80的原始数据放入下图文件夹,运行代码"trajectory_denoise.py",结果如下: image 第2步:移除不必要特征以及添加新特征,运行代码"preprocess.py",结果如下: image 第3步:根据需要添加横、纵向速度和加速度特征,运行代码"add_v_a.py",结果如下: image 第4步:按照滑动窗口法提取所需8s轨迹序列,运行代码"final_DP.py",结果如下: image 第5步:最终合并US101和I-80数据集,为保证数据的均衡性以及充分利用数据集,随机采样10组数据集,每组按照6:2:2的比例划分训练集、测试集和验证集;运行代码"merge_data.py". 模型训练及测试 MTF-LSTM模型训练,运行代码"MTF-LSTM.py" MTF-LSTM-SP模型训练,运行代码"MTF-LSTM-SP.py" 本文训练好的MTF-LSTM和MTF-LSTM-SP模型保存在文件夹/algorithm
基于yolov5的烟雾检测,含训好的模型和数据集
2023-05-21 00:21:02 360.52MB 数据集 yolov5 烟雾检测
1
这一套DELPHI的源码合集,包括20多个delphi的例子程序,内容涵盖windows钩子、DAO、系统信息、透明窗口、文字档间异同比较、剪贴板 ( ClipBoard ) 检视、Windows NT Service以及WINDOWS一些未公开的函数。相信不仅对DELPHI程序员有用,对在WINDOWS平台上的开发人员也有参考价值。
2023-05-20 19:41:58 1.89MB delphi 源码合集
1
Support data enhancement when there are few data sets(支持数据集较少的情况进行数据增强,包含随机的多种变化) 这是数据集扩增的一个小工具,在您想使用yolo等目标检测算法时数据集较少的情况下能够进行变化增强图片,丰富您的数据集。 (支持LabelIMg和LabelMe标注的文件) 包括3个python文件 rename_file.py能实现文件的重命名,注意修改文件的路径 DataAugmentforLabelImg.py能实现LabelImg标注后的图片的增强(包括模糊,亮度,裁剪,旋转,平移,镜像等变化) DataAugmentforLabelMe.py能实现LabelMe标注后的图片的增强(包括模糊、亮度、平移、镜像等变化) 注意:一些包的安装是必要的,比如Opencv_python等 ##将您需要增强的图片放在对应的文件夹即可,具体可参考demo给出的图片和xml文件存放路径,您放入即可
2023-05-19 17:12:06 1.64MB 数据集 opencv YOLO
1
S7-1200PLC(含安全F系列)固件_V4.6.0版本全套合集
内容概要:包含了2385张图片(图片中含有烟头)和split_data.py、xml2txt.py、data.yaml三个文件
2023-05-18 17:38:33 169.35MB 数据集
1
该数据集用于进行无限制的人脸识别,包含 13000 张从互联网上获取的人脸图像,每张图片都标有该人的姓名,其中有 1680 个人的有超过2张图像。这些人脸图片均通过 Viola-Jones 人脸检测算法从互联网上检测到。 共有四个子数据集,分别为 原始数据集(lfw)、funneled images、LFW-a、deep funneled images 四组。
2023-05-18 15:16:31 1.26GB 人脸识别 人脸检测
1
目标跟踪和碰撞时间估计 这是Udacity传感器融合纳米度的第二个项目。 我融合了来自KITTI数据集的相机和LiDAR测量值,以检测,跟踪3D空间中的物体并估算碰撞时间。 首先,我用YOLOv3处理图像以检测和分类对象。 下图显示了结果。 基于YOLOv3发现的边界框,我开发了一种通过关键点对应关系随时间跟踪3D对象的方法。 接下来,我使用了两种不同的方法来计算碰撞时间(TTC),分别是基于LiDAR和基于相机的TTC。 环境的结构由主要讲师Andreas Haja构建。 基于LiDAR的TTC 我通过使用齐次坐标将前车的3D LiDAR点投影到2D图像平面中。 投影如下图所示。接下来,我将3D LiDAR点分布到相应的边界框。 最后,我根据不同帧的对应边界框中最接近的3D LiDAR点计算了TTC。 基于摄像头的TTC 我使用检测器/描述符的各种组合来找到每个图像中的关键点,并在
2023-05-18 00:00:59 132.97MB C++
1
icwb2-data 数据集是由北京大学、香港城市大学、台湾 CKIP, Academia Sinica 及中国微软研究所联合发布的数据集,用以进行中文分词模型的训练。其中 AS 和 CityU 为繁体中文数据集,PK 和 MSR 为简体中文数据集。 icwb2-data 中文分词数据集_datasets.txt icwb2-data 中文分词数据集_datasets.zip
2023-05-17 22:04:02 50.22MB 数据集
1
阿博达 废弃对象数据集 Abandoned Objects Dataset (ABODA) 是一个新的用于废弃物体检测的公共数据集。 ABODA 包含 11 个标记有各种实际应用场景的序列,这些场景对废弃物体检测具有挑战性。 这些情况包括拥挤的场景、照明条件的显着变化、夜间检测以及室内和室外环境。
2023-05-17 21:48:33 254.53MB
1