VISION SDK是一个多处理器的ADAS-SoCs的TI系列软件开发平台。软件框架允许用户创建不同的ADAS应用程序数据流,包括视频捕获、视频预处理、视频分析算法和视频显示。该框架具有ADAS数据流样本,在ADAS SoC中运行不同的cpu和硬件加速器,并向客户展示如何在SoC中有效地使用不同的子系统。 VISION SDK基于一个名为“链接和链”(“Links and Chains”)的框架。连接(link)是视频数据流中的基本处理步骤。链接由一个与消息框(message box)耦合的操作系统线程(使用操作系统信号量实现)组成。由于每个链接作为单独的线程运行,因此链接可以彼此并行运行。
2023-04-10 09:53:42 139KB io IS sdk
1
通过视觉惯性数据融合进行室内导航 这是以下论文的代码: Farnoosh,A.,Nabian,M.,Closas,P.,&Ostadabbas,S.(2018年4月)。 通过视觉惯性数据融合进行第一人称室内导航。 在位置,位置和导航专题讨论会(PLANS)中,2018 IEEE / ION(pp.1213-1222)。 IEEE。 联系人 , 内容 1.要求 这段代码是用MATLAB R2016b编写的 2.用于收集视频-IMU的iPhone应用程序 联系 ,请求访问我们的iPhone应用程序以收集频率可调的同步视频和IMU数据 2.样本视频 本文中用于实验的走廊的原始视频以及通过我们的iPhone App收集的IMU测量值都包含在./sample_video/目录中。 3.走廊视频的运行代码 运行demo_vpdetect_modular.m 此代码包含以下部分: 阅读整个视频
2023-04-06 21:20:40 8.75MB MATLAB
1
交互是一种用于AI代理的逼真的可交互框架。 消息 (6/2020)我们提供了一个微型框架,以简化在Docker中运行AI2-THOR的工作。 可以通过以下网址访问它: : 。 (4/2020)框架的版本2.4.0更新在这里。 现在,所有不属于环境结构的sim对象都可以通过物理相互作用移动。 添加了新的对象类型,并添加了许多新的动作。 请在查看 (2/2020)AI2-THOR现在包括两个框架: 和 。 iTHOR包含交互式对象和场景,而RoboTHOR包含模拟场景及其对应的真实世界副本。 (9/2019)已添加框架2.1.0版更新。 添加了新的对象类型。 添加了新的初始化操作。 分割图像的生成在所有场景中都得到了改善。 (6/2019)AI2-THOR框架的2.0版更新现已发布! 我们的动作和对象状态增加了三倍,增加了新的动作,可以在视觉上进行明显的状态更改,例如电子设备上的屏幕
1
道路分割 合作者: 目录 : 介绍 该项目是 “模式分类和机器学习”课程的一部分。 更具体地说,这是我们针对道路分割的第二个项目的解决方案。 该文件概述了我们的代码及其功能。 有关该项目本身的所有其他说明,可以在其官方文件( paper.pdf文件)中找到。 该项目的目标是通过确定哪些16x16像素斑块是道路还是不是道路来分割地球的卫星图像。 简而言之,该代码运行第一个卷积神经网络以获得基本预测。 此后,它运行第二个,即后处理一个,它使用先前计算的预测来给出最终预测。 结果 我们取得了约0.91的F1分数,下面您将看到一个图像,说明所获得的定性结果。 在图像上,每个检测到的道路补丁都以
1
Adrian Rosebrock 的Deep Learning for Computer Vision with Python 1,2,3都在里面了。我自己没看过,但是我在看他opencv教程,倒是蛮不错的。
2023-03-30 20:31:13 60.5MB deeplearning opencv CV
1
令人敬畏的图像着色 基于深度学习的图像着色论文和相应的源代码/演示程序的集合,包括自动和用户指导(即与用户交互)的着色,以及视频的着色。 随意创建PR或问题。 (首选“拉式请求”) 大纲 1.自动图像着色 纸 来源 代码/项目链接 ICCV 2015 深着色 ICCV 2015 学习表示形式以实现自动着色 ECCV 2016 [项目] [代码] 彩色图像着色 ECCV 2016 [项目] [代码] 让有颜色!:全局和局部图像先验的端到端联合学习,以实现同时分类的自动图像着色 SIGGRAPH 2016 [项目] [代码] 通过生成对抗网络进行无监督的多样化着色 ECML-PKDD 2017 [代码] 学习多样的图像着色 CVPR 2017 [代码] 多种着色的结构一致性和可控性 ECCV 2018 使用有限的数据进行着色:通过内存增强网络进行少量着色 CVP
1
无人驾驶汽车的动手视觉和行为 这是Packt发布的《无人驾驶的代码库。 使用Python 3和OpenCV 4探索视觉感知,车道检测和对象分类 这本书是关于什么的? 这本书将使您对推动自动驾驶汽车革命的技术有深刻的了解。 首先,您所需要的只是计算机视觉和Python的基础知识。 本书涵盖以下激动人心的功能: 了解如何执行相机校准 熟悉使用OpenCV在自动驾驶汽车中进行车道检测的工作原理 通过在视频游戏模拟器中自动驾驶来探索行为克隆 掌握使用激光雷达的技巧 探索如何配置自动驾驶仪的控件 使用对象检测和语义分割来定位车道,汽车和行人 编写PID控制器以控制在模拟器中运行的自动驾驶汽车 如果您觉得这本书适合您,请立即获取! 说明和导航 所有代码都组织在文件夹中。 例如,Chapter02。 该代码将如下所示: img_threshold = np.zeros_like(chan
2023-03-27 16:36:32 825.36MB JupyterNotebook
1
3D 视觉工具包,试用版,有时间限制,可以了解基本的方法,思路
2023-03-23 14:52:10 59.01MB 3D视觉 LABVIEW
1
多摄像机人员跟踪和重新识别(使用视频) 用于“检测/跟踪”和“重新识别”不同摄像机/视频中的个人的简单模型。 介绍 该项目旨在跟踪不同角度的视频中的人。 用于完成此任务的框架分别依靠MOT和ReID来跟踪和重新标识人类的ID。 可以使用YOLO_v3或YOLO_v4来完成跟踪,并且ReID依赖于KaiyangZhou的Torchreid库。 安装 如果您的计算机上未安装 ,请下载 克隆存储库 git clone https : // github . com / samihormi / Multi - Camera - Person - Tracking - and - Re - Identification 创建项目环境 cd Multi - Camera - Person - Tracking - and - Re - Identification conda create
2023-03-22 15:57:54 50.11MB tracking video computer-vision tensorflow
1
补丁VQ Patch-VQ:“修补”视频质量问题 演示版 请按照 测试在LSVQ数据库上预训练的Patch VQ模型。 请按照在您的数据库上测试我们的Patch VQ模型。 下载LSVQ数据库 描述 对于社交和流媒体应用程序,无参考(NR)感知视频质量评估(VQA)是一个复杂,尚未解决的重要问题。 需要有效,准确的视频质量预测器来监视和指导数十亿个用户共享内容(通常是不完美的内容)的处理。 不幸的是,当前的NR模型在真实的,“野生的” UGC视频数据上的预测能力受到限制。 为了推进这一问题的发展,我们创建了迄今为止最大的主观视频质量数据集,其中包含39,000个真实世界的失真视频和117,000个时空本地化的视频补丁(“ v-patches”),以及5.5M人类的感知质量注释。 使用此工具,我们创建了两个独特的NR-VQA模型:(a)基于本地到全球区域的NR VQA体系结构(称为PVQ)
1