一篇slam相关论文,结合了深度学习。用CNN单帧预测深度,可以解决单目slam中尺度不确定性、纯旋转、低纹理区域等问题。
2021-11-18 10:21:55 8.17MB paper slam 深度学习
1
STM32G4-WDG_TIMERS-Real-Time_Clock_RTC(STM32G4-实时时钟控制器).pdf
2021-11-18 09:00:43 1.12MB STM32G4
1
在本文中,我们提出了一种新的深度神经网络。对于给定的三维传感器捕获的数据,它能够联合进行三维检测、跟踪和运动预测。 通过共同进行这些任务,我们的整体方法对于遮挡以及范围内的稀疏数据鲁棒性更强。 我们的方法在空间和时间上对3D鸟瞰图执行三维卷积,这在内存和计算方面都非常有效。 我们在北美几个城市拍摄的一个新的超大型数据集上进行的实验表明,我们可以大幅度超越最先进的技术。 重要的是,通过共享计算,我们可以在30毫秒内执行所有任务。
2021-11-17 15:25:03 1.41MB 深度学习 3D目标检测
1
DeepStream人类姿势估计 人体姿势估计是计算机视觉任务,它通过在视频或照片中定位人体上的某些关键点来估计人体的配置(“姿势”)。 以下应用程序作为参考,以项目为例,在DeepStream 5.0中部署自定义姿势估计模型。 有关详细的NVIDIA Developer博客,请访问。 输入视频源 输出视频 先决条件 你会需要 DeepStreamSDK 5.0 CUDA 10.2 TensorRT 7.x 入门: 要开始使用,请按照以下步骤操作。 在您的平台上安装 ,通过运行deepstream-app验证其是否正常运行。 最好将存储$DEEPSTREAM_DIR/sources/apps/sample_apps在$DEEPSTREAM_DIR/sources/apps/sample_apps 。 下载TRTPose,使用此 将其转换为ONNX,然后在DeepStream
2021-11-17 14:20:15 85.8MB real-time computer-vision tesla deepstream
1
监控视频中的真实世界异常检测:Pytorch RE实施 该存储库是使用pytorch重新实现的“监视视频中的真实世界异常检测”。 重新实施的结果是,与相比,我们获得了更高的AUC。 数据集 下载以下数据并解压缩到您的$ DATA_ROOT_DIR下。 / workspace / DATA / UCF-Crime / all_rgbs 目录树 DATA/ UCF-Crime/ ../all_rgbs ../~.npy ../all_flows ../~.npy train_anomaly.txt train_normal.txt test_anomaly.txt test_normal.txt 训
2021-11-16 22:05:29 13KB Python
1
Yolov5 +使用PyTorch进行深度排序 介绍 该存储库包含PyTorch YOLOv5的简化版( )。它过滤掉不是人的所有检测。然后,将对人员的检测传递给跟踪人员的深度排序算法( )。它仅跟踪人员这一事实背后的原因是,深度关联度量仅在人员数据集上进行训练。 描述 该实现基于两篇文章: 使用深度关联指标进行简单的在线和实时跟踪 YOLOv4:物体检测的最佳速度和准确性 要求 安装了所有requirements.txt依赖关系的Python 3.8或更高版本,包括torch> = 1.7。要安装运行: pip install -U -r requirements.txt 所有依赖项都包含在关联的docker映像中。 Docker要求是: nvidia-docker Nvidia驱动程序版本> = 440.44 在运行跟踪器之前 递归克隆存储库: git clone --r
2021-11-15 12:08:02 665KB real-time video pytorch computer-camera
1
YOLACT实时实例细分 介绍 这是ICCV2019接受的论文的Tensorflow 2实现。 本文在扩展现有对象检测体系结构及其自身并行原型生成思想的基础上,提出了一种用于实际实例分割的全卷积模型。 在此回购中,我的目标是提供一种使用此模型的通用方法,让用户根据原始论文的想法,为自己的特定需求提供更多灵活的选项(自定义数据集,不同的主干选择,锚点规模和学习率进度表)。 [更新] 2021/03/23请认真处理此工作! 模型 这是原始纸上的YOLACT的插图。 A.数据集和预处理 1.准备COCO 2017 TFRecord数据集 / / 从注释中将/train2017 , /val2017和/annotations/instances_train2017.json和/annotations/instances_val2017.json提取到./data文件夹中,然后运行: pyth
1
快速移动 消息 (2021.2.13)支持Scaled-YOLOv4模型 (2021.1.3)为YOLO添加DIoU-NMS(+ 1%MOTA) (2020.11.28)Ubuntu 18.04上提供的Docker容器 描述 FastMOT是一个自定义的多对象跟踪器,它实现了: YOLO探测器 SSD检测器 深度SORT + OSNet ReID KLT光流跟踪 相机运动补偿 深度学习模型通常是Deep SORT的瓶颈,这使得Deep SORT无法用于实时应用程序。 FastMOT显著加快整个系统的实时甚至特森运行。 它也提供了足够的灵活性来调整速度精度的权衡,而无需使用轻量级的模型。 为了实现更快的处理速度,FastMOT仅每N帧运行一次检测器和特征提取器。 使用光流来填充间隙。 YOLOv4在CrowdHuman(82%mAP@0.5)上进行了训练,而SSD是TensorFlo
2021-11-12 18:10:58 22.26MB real-time embedded computer-vision ssd
1
Optimized Contrast Enhancement for Real Time Image and Video Dehazing
2021-11-11 13:19:34 4.19MB Dehazing
1
经典实变函数教材,研究生教材最常用的就是这本。
2021-11-10 20:49:58 6.18MB Real analysis
1