文件名:NodeCanvas v3.2.8.unitypackage NodeCanvas 是 Unity 的一款功能强大的视觉脚本编辑插件,专注于行为树、任务系统和对话系统的开发,适用于 AI 行为、复杂任务逻辑和对话管理等。NodeCanvas 为游戏开发者提供了直观的节点图形化编辑界面,帮助他们无需编写大量代码即可构建复杂的行为和逻辑,使其成为 AI 驱动游戏、角色扮演游戏(RPG)和互动式叙事游戏的理想工具。 主要特点: 行为树(Behavior Trees): NodeCanvas 提供了功能丰富的行为树系统,支持创建和管理复杂的 AI 行为逻辑。 开发者可以通过节点设置条件、动作、决策等行为流程,适用于敌人 AI、NPC 行为、宠物互动等。 支持黑板系统(Blackboard),允许在不同节点间共享数据,使行为更加动态和灵活。 状态机(FSM,Finite State Machines): 内置状态机系统,通过状态节点创建可视化的状态流转,如敌人从“巡逻”状态到“追击”状态。 适合简单 AI 或控制角色状态的情况,如控制不同场景下的 NPC 行为、任务状态等
2025-08-21 18:29:44 1.19MB Unity插件
1
Halcon函数速查表 Chapter 1 :分类(Classification) 1.1 高斯混合模型(GMM:Gaussian-Mixture-Models) 函数 功能 1 add_sample_class_gmm() 把一个训练样本添加到一个高斯混合模型的训练数据上。 2 classify_class_gmm() 通过一个高斯混合模型来计算一个特征向量的类。 3 clear_all_class_gmm() 清除所有高斯混合模型。 ...
2025-08-18 14:52:04 226KB halcon 机器视觉
1
  关于3D原理,从人眼的结构来说,在各位进这个会场时通过眼睛会有一个关于会场空间大小的感觉,为什么会这样呢?因为双眼视线交汇时,会产生立体感,大脑能够测量出双眼向中间汇聚了多少度,从而测出距离。看向远处物体时,眼睛向中间汇聚的角度会小一点,看向很近的物体时,眼睛向中间汇聚角度很大,大脑的作用就是测量出人眼到这个物体时的长度,这就是人眼和大脑测定距离的基本原理。接下来我将解释如何产生3D的视觉。 3D视觉原理的核心在于模拟人类的双眼视差效应,这种效应是人类感知三维世界的关键所在。众所周知,人类的两只眼睛位于头部的不同位置,因此在观察同一个物体时,由于视线角度的差异,会分别接收到略有不同的图像。正是这两个略有差异的图像,经由大脑的处理,使我们能够感知到物体的深度和距离。 当物体位于较近处时,双眼视线交汇的角度较大,而当物体位于较远处时,交汇的角度则相对较小。通过这样的交汇角度差异,大脑能够对物体的位置和距离做出估算。这一自然现象被运用到3D技术中,无论是3D摄影、3D电影还是其他形式的立体成像。 在3D成像技术中,为了模拟人眼捕捉深度的机制,通常会使用两台摄像机来代替人眼。这两台摄像机之间保持一定的距离(通常为6.5至7厘米),模拟人眼的瞳孔间距,捕捉到的图像分别对应左眼和右眼观察到的视角。拍摄完成后,通过特定的技术处理,比如使用偏振镜或快门眼镜技术,将两个视角的图像分离,并分别投射到观看者的眼睛中。 放映3D影像时,投影仪必须处理分离的图像,并且通常会应用偏振光技术。通过这种方式,观众佩戴的3D眼镜的偏振过滤器能够确保左眼仅接收到从一台摄像机捕获的图像,右眼则仅接收到从另一台摄像机捕获的图像。这样一来,两个图像在大脑中合并,重建出具有立体感的视觉效果。 然而,在3D的拍摄和放映过程中,挑战无处不在。例如,摄影师在选择镜头间距时必须考虑到拍摄场景的特点,以适应不同的远近景需求。如果场景中包含多个层次的物体,摄影师可能需要调整镜头间距或采用不同的摄像机布局,如并列式或垂直反射式,以获得最佳的拍摄效果。 在实际应用中,3D技术的精确性和逼真度还受到图像同步、色彩校正等因素的影响。例如,在非洲山地进行拍摄时,由于地势起伏,为了同时捕捉到近景和远景,摄影师可能需要调整镜头间距来适应场景。 尽管存在挑战,3D技术正持续进步,不断推陈出新,旨在为观众带来更真实的视觉体验。从最初简单的红蓝眼镜,到如今的高端偏振光3D和主动快门技术,3D视觉原理的应用正不断拓展,为观众提供更加丰富和沉浸式的视觉享受。在电影、电视、游戏以及虚拟现实领域,3D技术都已经成为提升用户体验的重要手段,未来随着技术的不断完善,我们有望获得更加自然和生动的三维视觉体验。
2025-08-18 08:50:26 389KB 视差原理 投影原理
1
HALCON是一种广泛应用于工业自动化领域的专业机器视觉软件,由德国MVTec公司开发。它集成了丰富的图像处理算法,包括形状匹配、模板匹配、1D/2D码识别、光学字符识别(OCR)、测量、检测等功能,适用于各种复杂的视觉检测任务。本资料PDF版主要针对HALCON视觉库的应用进行深入探讨。 第一部分可能涵盖了HALCON的基础概念和基本操作,而第二部分则在此基础上进一步深化。"基于Halcon的机器视觉试验平台的设计与研究"文档可能讲述了如何构建一个完整的机器视觉系统,包括硬件接口设计、软件架构以及在HALCON中的实际应用。此研究可能涉及到了实验平台的硬件选型、系统集成以及测试过程中的挑战与解决方案。 "基于HALCON的视频对象分割及跟踪方法"可能详细介绍了如何利用HALCON的图像处理功能对动态场景中的目标进行精确分割和持续跟踪。这涉及到运动物体检测、背景建模、特征提取等技术,对于自动化生产线监控、无人驾驶等领域有重要应用价值。 "面向AUV回收控制的水下机器视觉研究"则聚焦于水下环境中的视觉问题,探讨了如何克服水下光线衰减、浑浊等因素影响,实现水下自主无人潜水器(AUV)的视觉导航和回收控制,这在海洋科学研究和海底资源探测中具有重要意义。 "图像处理分析与机器视觉(第二版)中译本"是一本全面介绍图像处理理论和机器视觉实践的书籍,可能包含了HALCON在内的多种机器视觉工具的使用方法,为读者提供了理论基础和实战指导。 "基于HALCON的IC卡喷码符号识别技术研究与实现"系列文档专门讨论了利用HALCON进行IC卡上的喷码识别。这涉及到字符定位、图像预处理、OCR识别等步骤,是自动识别和数据采集(AIDC)领域的一个具体应用实例。 "基于HALCON机器视觉软件的超小功率金卤灯电极装配监控系统的研究"系列文档可能阐述了在精密电子制造中,如何使用HALCON进行产品质量检测,确保电极装配的精确度和一致性。这类系统对于提高生产效率和降低不良品率至关重要。 通过这些文档,读者可以了解到HALCON在不同应用场景下的强大功能,以及如何结合具体项目需求,灵活运用其丰富的算法库,解决实际的机器视觉问题。无论是初学者还是经验丰富的工程师,都能从中受益匪浅,提升自己的机器视觉技术能力。
2025-08-16 20:44:47 852.54MB HALCON 视觉检测 机器学习
1
内容概要:本文详细介绍了YOLOv13的目标检测框架,从技术背景、核心技术亮点、性能优势、安装流程、使用指南到实际应用场景进行了全面解析。YOLOv13在继承YOLO系列优点的基础上,引入HyperACE和FullPAD两项关键技术,分别用于增强特征间的高阶关联和全流程信息协同,从而显著提升了复杂场景下的检测精度。文章还详细描述了YOLOv13的安装步骤,包括系统环境要求、软件依赖安装和源码获取,以及模型验证、训练、推理和导出的具体操作。最后,通过安防监控、自动驾驶、工业检测等领域的实际应用案例展示了YOLOv13的强大性能。 适用人群:具备一定编程基础,特别是对计算机视觉和深度学习有一定了解的研发人员和技术爱好者。 使用场景及目标:①理解YOLOv13的核心技术和性能优势;②掌握YOLOv13的安装、配置及使用方法;③学会如何在实际项目中应用YOLOv13进行目标检测,包括模型训练、验证、推理和导出。 其他说明:本文不仅提供了详细的安装和使用指导,还针对可能出现的问题给出了解决方案,并分享了一些优化技巧,如数据增强、模型剪枝与量化、硬件加速等。此外,对未来目标检测技术的发展趋势进行了展望,强调了技术优化、跨领域融合和应用拓展的重要性。
2025-08-15 17:17:38 40KB 目标检测 计算机视觉
1
5 HUAWEI HiCar UX 开放能力 5.1 设计概述 设计目标:保障用户驾驶安全,提供便捷舒适的操作及智能贴心的服务。 设计要素:  安全便捷:信息易读,易搜索;内容界面布局及热区,易操作;减少注意力干 扰,避免分心。  自然舒适:界面简洁一致性,易学,易用;高效,自然多模态操作;无感设备连 接和共享。  智能贴心:智能管理内容和消息通知;功能克制,精简复杂特性。 图5-1 HUAWEI HiCar 设计要素 5.2 人因研究与视觉设计 基于对用户观测和操作模型的研究分析,人们常用的手机使用距离为 30cm,而驾舱的 使用距离为 70cm,为保障用户在驾舱环境下的使用的安全和交互易用性,HUAWEI HiCar 对车载人机交互要素进行适配以满足复杂驾驶状态的使用需求。 界面元素大小 结合用户观测模型及车辆的使用环境(运动和颠簸)的因素,为保障用户的易读性和 易操作性,车载系统上各元素的物理视觉至少需要达到手机上的 2 倍。
2025-08-12 15:26:42 2.01MB 车联网
1
GVQA 以下论文中的“地面视觉问答”(GVQA)模型的代码: 艾西瓦娅·阿格劳瓦尔(Aishwarya Agrawal),德鲁·巴特拉(Dhruv Batra),德维·帕里克(Devi Parikh),阿尼鲁达(Aniruddha Kembhavi) 2018年IEEE计算机视觉和模式识别会议(CVPR) 推断码 GVQA模型包含以下模块: 问题分类器 视觉概念分类器(VCC) 答案簇预测器(ACP) 概念提取器(CE) 答案预测器(AP) 视觉验证器(VV) 为了对GVQA进行推断,我们需要按顺序对上述每个模块进行推断,以便将来自一个模块的预测用作以下模块的输入功能。 因此,首先我们在问题分类器上进行如下推断: th eval_question_classifier.lua 然后,我们在VCC模块上运行推断,如下所示: th eval_vcc.lua 然后
2025-08-12 14:34:18 22KB Lua
1
数据集是一个包含腹部CT扫描图像的医学影像数据集,该数据集主要包含用于检测胃癌的腹部CT扫描的轴位切片图像,这些图像最初是在诊断过程中获取的,以识别胃癌的迹象。数据集文件是一个约93.9MB的压缩包,解压后包含一系列腹部CT图像,图像格式可能为DICOM或其他标准医学图像格式。这些图像为研究人员提供了丰富的数据资源,可用于多种医学影像相关的研究和应用开发。数据集的应用 胃癌检测:研究人员可以利用这些CT扫描图像构建和测试算法,以识别CT扫描中的胃癌迹象,从而提高胃癌的诊断准确性和效率。 图像分割:该数据集可用于训练图像分割模型,精确勾勒出腹部器官及潜在肿瘤的轮廓,这对于医学影像分析和诊断具有重要意义。 医学影像研究:研究人员可以利用这些图像探索和创新CT图像分析与处理技术,推动医学影像领域的研究进展。 该数据集专注于胃癌检测相关的腹部CT图像,具有一定的专业性和针对性。虽然其规模可能不如一些大型的多中心、多器官标注的腹部CT数据集(如AbdomenAtlas),但对于专注于胃癌研究或特定医学影像任务的研究人员来说,仍具有较高的价值,需要注意的是,该数据集的规模和标注信息相对有限,如果需要进行更广泛的腹部器官研究或多器官分割任务,可能需要结合其他更大型的数据集(如AbdomenAtlas或AbdomenCT-1K等)来获取更丰富的数据和标注信息。
2025-08-11 00:48:59 89.45MB 机器学习 计算机视觉 图像处理
1
内容概要:本文介绍了十个著名且广泛应用于学术研究和工业界的数据集,涵盖了多模态数据分析的各个方面。具体而言,包含了从图像到自然语言等多个领域的高质量数据资源,如COCO数据集、Visual Genome、豆瓣会话语料库、TrivisaQA等。每一个数据集都有详细的背景介绍、数据特征以及应用场景。这些数据不仅促进了图像、语音、文本等多种模态间的深度融合与发展,也为后续的研究提供了强有力的支持与保障。 适合人群:从事深度学习、计算机视觉、自然语言处理等相关方向的专业技术人员,尤其是那些希望利用丰富而多样的数据资源提升自身项目质量或开展最新科研工作的研究人员。 使用场景及目标:本资料旨在帮助使用者全面了解当前主流的多模态数据集情况,指导他们针对特定的应用需求选取最合适的数据源,从而更好地推进科学研究和技术产品的发展。无论是进行论文写作、系统开发还是算法评测,这份资料都能够为用户提供重要的参考资料。 其他说明:部分数据集涉及复杂的标注技术和多元化的评价指标,建议读者深入了解后再行选用。同时,随着人工智能技术的日新月异,新的数据集不断涌现,本文虽已尽量涵盖重要成果,但未来或许会有更多优质数据等待发掘与分享。
2025-08-04 10:02:52 16KB 计算机视觉 自然语言处理
1
康耐视VisionPro带DM码坐标棋盘格标定板CAD图,棋盘格PDF打印即可使用。 内涵400*400尺寸,棋盘格【0.2、0.5、1.0、2.0、3.0、4.0、5.0mm】(毫米)等7种尺寸的DM棋盘格标定板CAD图, 另外包含不带DM码的棋盘格标定板4种,用A4纸打印可初步校正使用
2025-07-29 20:24:05 157.42MB visionpro 机器视觉
1