H3C UIS 6.5标准版超融合产品工程开局指导手册.pdf
2022-10-17 10:03:26 5.12MB h3c
H3C UIS 6.5超融合产品工程开局指导手册.pdf
2022-10-17 10:03:25 5.37MB H3C
基于ML.Net部署的Yolov5-6.1 ONNX模型,应用于材料化学领域的筑基融合检测,采用C#-Winform界面部署。
2022-10-17 09:06:59 290.54MB ML.Net YOLOv5-6.1 C#_Winform
目录1.图像加法运算1.1 运用numpy库1.2 调用OpenCV1.3 两种方法的运行代码和结果2.图像融合2.1 运用openCV中的addWeighter()函数2.2 运用PIL库中的Image.blend()函数 1.图像加法运算 1.1 运用numpy库 运用numpy库进行图像加法运算的方法为:取模运算 总像素值 = 图像1 + 图像2 1)当总像素值<=255时,像素值保持不变. 。如:56+124=180,即加法运算后的像素值为180 2)当总像素值>255时,像素值取(总像素值 – 255)。如:(250+46)- 255 = 41,即加法运算后的像素值为41 1.2
2022-10-16 16:53:56 158KB c cvtcolor nc
1
主要介绍了用Python快速实现视频的人脸融合功能,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
1
基于深度神经网络的交通灯检测算法研究与实现,张逸凡,傅慧源,交通灯检测技术是自动驾驶系统的重要组成部分,但是传统方法的交通灯检测技术存在准确率低,算法速度慢等弊端。基于深度神经网络
1
大部分基于卷积神经网络的双目立体匹配算法往往将双目图像对的像素级别特征作为匹配代价进行计算,缺乏将全局特征信息结合到立体匹配算法的能力,导致不适定区域(如弱纹理区域、反光表面、细长结构、视差不连续区域等)的匹配精度差,进而影响整体立体匹配精度。针对这个问题,提出一种基于多维特征融合(MDFF)的立体匹配算法,该算法主要由三个模块组成:残差开端(Inception-ResNet)模块、空间金字塔池化(SPP)模块和堆叠沙漏网络(SHN)模块。Inception-ResNet模块主要提取图像对局部特征信息;SPP模块主要提取图像对全局特征信息,构建匹配代价卷;SHN模块用来规则化匹配代价卷。在KITTI2012和KITTI2015数据集上进行验证,可得本文算法的三像素平均误匹配率为1.62%和1.78%,超过了国内外大部分先进算法;此外,本文提出的立体匹配算法在Apollo数据集和Middlebury数据集上也表现较好。
2022-10-10 23:53:43 11.5MB 机器视觉 立体匹配 卷积神经 双目视觉
1
【学习日志】2022.10.08 Unity人物运动(移动+转身)、Character Controller、射线检测、动画融合
2022-10-10 09:07:02 72.54MB Unity
1
pclpy是点云库(PCL)的Python绑定。使用CppHeaderParser和pybind11从头文件生成。这个库正在积极开发中,api可能会发生变化。所包含的模块确实可以工作,但测试还不完整。目前只支持Windows和python 3.6 x64。许多其他python库尝试绑定PCL。最流行的是python-pcl,它使用Cython。虽然Cython非常强大,但绑定c++模板并不是它的强项(PCL大量使用模板)。该资源使用pclpy进行点云和图像之间的坐标变换,并进行了可视化,适合初学者进行练手和学习,同样可用于改写为自己所需要的点云处理程序。
2022-10-06 09:06:40 297.67MB pclpy 点云图像坐标变换
1
提出了一种新的基于核的自适应目标跟踪方法,以提高复杂背景下目标跟踪的鲁棒性和准确性。 尺度不变特征变换(SIFT),颜色和运动特征的三个核函数的线性加权组合用于表示跟踪目标的概率分布。 外观和运动功能相结合,以增强目标区域的位置稳定性和准确性。 跟踪窗口的大小可以根据相应SIFT对的仿射变换参数进行实时调整。 为了更好地提取特征,还根据场景自适应地调整了三个核函数的权重。 实验表明,该算法能够在不同场景下成功跟踪运动目标。 此外,它可以处理目标姿态,比例,方向,视图和照明变化,并且其性能优于经典的Camshift算法,基于SIFT的方法和基于颜色SIFT的方法。
2022-10-01 02:01:46 463KB target tracking; kernel function;
1