计算机视觉.中的数学方法,.吴福朝,.科学出版社,.2008
2023-05-13 19:21:07 4.16MB 计算机视觉
1
介绍数字图像相关知识,以及计算机视觉。是学习图形图像以及计算机视觉的很好教材。适合有一定图像基础的人阅读。
2023-05-13 19:20:38 14.18MB 数字图像 计算机视觉
1
计算机视觉 机器视觉 视觉计算入门的必备数学理论基础,高清电子版!
2023-05-13 19:19:50 4.27MB 计算机视觉 机器视觉 视觉计算
1
计算机视觉:一种现代方法].(英国)David.A.Forsyth.清晰版
2023-05-13 19:17:41 13.56MB 计算机视觉
1
分享课程——人工智能:计算机视觉,一站式体系化全面进阶课,升级版32周,包含图像分割+目标检测+人脸识别+模型分析+图像生成GAN等内容。 对标大厂人工智能岗位要求,多重维度构建能力模型 理论与实践紧密结合,每个技术栈均搭配工业级项目操练 配套案例极为丰富,举一反三,覆盖深度学习核心应用场景
2023-05-12 21:05:13 577B 人工智能 计算机视觉
1
中科院自动化所计算机视觉课程大作业C++实现SIFT特征提取与匹配完整代码与说明文档
1
【水果分级】基于计算机视觉实现苹果分级系统含Matlab源码
2023-04-26 11:38:42 1.25MB
1
CNN的成功依赖于其两个固有的归纳偏置,即平移不变性和局部相关性,而视觉Transformer结构通常缺少这种特性,导致通常需要大量数据才能超越CNN的表现,CNN在小数据集上的表现通常比纯Transformer结构要好。 CNN感受野有限导致很难捕获全局信息,而Transformer可以捕获长距离依赖关系,因此ViT出现之后有许多工作尝试将CNN和Transformer结合,使得网络结构能够继承CNN和Transformer的优点,并且最大程度保留全局和局部特征。 Transformer是一种基于注意力的编码器-解码器结构,最初应用于自然语言处理领域,一些研究最近尝试将Transformer应用到计算机视觉领域。 在Transformer应用到视觉之前,卷积神经网络是主要研究内容。受到自注意力在NLP领域的影响,一些基于CNN的结构尝试通过加入自注意力层捕获长距离依赖关系,也有另外一些工作直接尝试用自注意力模块替代卷积,但是纯注意力模块结构仍然没有最先进的CNN结构表现好。
1
本数据集为摔倒检测数据集,标注格式为VOC 目标检测框,格式XML,数量为1440
1
由于C++语言的运行优势,多数算法模型在实际应用时需要部署到C++环境下运行,以提高算法速度和稳定性 主要讲述WIn10下在VS工程中通过Opencv部署yolov5模型,步骤包括: 1.python环境下通过export.py导出.onnx模型 2.C++环境下通过opencv的DNN模块进行模型导入和调用 部署完成后的检测效果如下图所示(CPU下运行,无加速!) 适合刚开始转战C++的算法小白
2023-04-20 21:31:38 126MB 深度学习 目标检测 YOLO 计算机视觉
1