一、先添加库libjpeg.so for arm: 交叉编译libjpeg 交叉编译工具 版本:3.4.1 路径:/usr/local/arm/3.4.1/bin 编译libjpeg前要确保系统装了libtool库。否则编译不成功。 1、下载libjpeg源码:ftp://ftp.uu.net/graphics/jpeg/jpegsrc.v6b.tar.gz 2、解压缩 jpegsrc.v6b.tar.gz 3、进入/jpeg-6b目录配置: ./configure --host=arm-linux --enable-shared --prefix= TARGETDIR 4、进入自动生成的Makefile,修改 CC= arm-linux-gcc AR= arm-linux-ar AR2=arm-linux-ranlib 5、在TARGETDIR目录下建立 man/man1,include,lib,bin四个目录 6、#make #make install 7、将/TARGETDIR/include/中(jconfig.h, jerror.h, jmorecfg.h, jpeglib.h)四个头文件拷贝到:/usr/local/arm/3.4.1/arm-linux/include中。 将/TARGETDIR/lib中(libjpeg.la, libjpeg.so, libjpeg.so.62, libjpeg.so.62.0.0)中库文件拷贝到:/usr/local/arm/3.4.1/arm-linux/lib中。 注意:执行以下命令检查生成的libjpeg.so是否为ARM版: 下为正确输出,否则检查交叉编译器路径以及Makefile并重新编译。 file libjpeg.so libjpeg.so: ELF 32-bit LSB shared object, ARM, version 1 (ARM), not tripped 注意:执行完以上操作后执行以下命令检查库文件是否已正确安装: arm-linux-gcc -print-file-name=libjpeg.so 如果输出为"libjpeg.so"则说明没有正确安装,重复7步骤。 如果输出为"DIR/libjpeg.so"则说明安装正确。 二、编译采集图像小程序 小程序在:http://blog.chinaunix.net/u3/93660/showart_1860238.html 1、交叉编译: #arm-linux-gcc test.c -o test -I /usr/local/arm/3.4.1/arm-linux/include -L /usr/local/arm/3.4.1/arm-linux/lib 2、将生成的可执行文件和libjpeg等三个库文件拷贝到板子上执行。ok,done!
2022-03-29 18:48:25 137KB 人脸识别
1
借助百度云中的百度人脸识别用java开发一个人脸识别-附件资源
2022-03-29 17:41:16 106B
1
人脸识别:使用PCA方法,即主成分分析,区分人脸和非人脸。
2022-03-27 15:17:32 5KB PCA 人脸识别
1
文件包含了水平条纹噪声,和点噪声,运用二维傅里叶变换通过matlab编程实现对噪声的去除。
2022-03-27 12:01:55 2KB 傅里叶变换、K-L变换、PCA
1
超好的VC++人脸识别demo,请开发志同道合者尽快下载参考!
2022-03-26 14:55:36 5.84MB 人脸识别
1
Human parsing has been extensively studied recently (Yamaguchi et al. 2012; Xia et al. 2017) due to its wide applications in many important scenarios. Mainstream fashion parsing models (i.e., parsers) focus on parsing the high-resolution and clean images. However, directly applying the parsers trained on benchmarks of high-quality samples to a particular application scenario in the wild, e.g., a canteen, airport or workplace, often gives non-satisfactory performance due to domain shift. In this paper, we explore a new and challenging cross-domain human parsing problem: taking the benchmark dataset with extensive pixel-wise labeling as the source domain, how to obtain a satisfactory parser on a new target domain without requiring any additional manual labeling? To this end, we propose a novel and efficient crossdomain human parsing model to bridge the cross-domain differences in terms of visual appearance and environment conditions and fully exploit commonalities across domains. Our proposed model explicitly learns a feature compensation network, which is specialized for mitigating the cross-domain differences. A discriminative feature adversarial network is introduced to supervise the feature compensation to effectively reduces the discrepancy between feature distributions of two domains. Besides, our proposed model also introduces a structured label adversarial network to guide the parsing results of the target domain to follow the high-order relationships of the structured labels shared across domains. The proposed framework is end-to-end trainable, practical and scalable in real applications. Extensive experiments are conducted where LIP dataset is the source domain and 4 different datasets including surveillance videos, movies and runway shows without any annotations, are evaluated as target domains. The results consistently confirm data efficiency and performance advantages of the proposed method for the challenging cross-domain human parsing problem. Abstract—This paper presents a robust Joint Discriminative appearance model based Tracking method using online random forests and mid-level feature (superpixels). To achieve superpixel- wise discriminative ability, we propose a joint appearance model that consists of two random forest based models, i.e., the Background-Target discriminative Model (BTM) and Distractor- Target discriminative Model (DTM). More specifically, the BTM effectively learns discriminative information between the target object and background. In contrast, the DTM is used to suppress distracting superpixels which significantly improves the tracker’s robustness and alleviates the drifting problem. A novel online random forest regression algorithm is proposed to build the two models. The BTM and DTM are linearly combined into a joint model to compute a confidence map. Tracking results are estimated using the confidence map, where the position and scale of the target are estimated orderly. Furthermore, we design a model updating strategy to adapt the appearance changes over time by discarding degraded trees of the BTM and DTM and initializing new trees as replacements. We test the proposed tracking method on two large tracking benchmarks, the CVPR2013 tracking benchmark and VOT2014 tracking challenge. Experimental results show that the tracker runs at real-time speed and achieves favorable tracking performance compared with the state-of-the-art methods. The results also sug- gest that the DTM improves tracking performance significantly and plays an important role in robust tracking.
2022-03-26 14:11:37 26.39MB 人脸识别 行人Reid
1
人脸识别,基于opencv平台,在vs任何版本都可以运行。方便快捷。
2022-03-26 02:41:28 3KB 人脸识别
1
C#开发的基于Face++的人脸识别视频登录验证加密系统,加密采用AES算法。内有PPT文档和文件的运行流程。价格略贵,望理解
2022-03-25 21:56:34 22.27MB 人脸识别加密
1
MATLAB人脸识别疫情防护门禁系统 课题介绍:该系统为基于MATLAB的疫情防护门禁系统。建立一个GUI可视化界面,将疑似病例录入进人脸库,对其进行训练。测试的时候,采集一张全身照人脸图片,进行人脸定位,分割,和库内人脸进行对比,如果是库内人脸,则判定为疑似病例,GUI进行报警,包括文字和语音报警。如果不是库内人脸,则说明非疑似人员,可放行。 摘 要 作为数字图像处理和计算机视觉领域的一个重要组成部分,利用摄像机对图像进行采集,从图像中检测人脸并进行识别,有着非常重要的研究意义和应用价值。面对突如其来的新型肺炎疫情,人们生活秩序被严重打乱。跟普通流感不同,此次疫情可以通过人体唾沫传播,感染他人能力很强。近期面对疫情,国家层面的人员进出管控显得尤为迫切,可以直接从源头把关,防止疑似人员流窜,有效地保护了自己和他人,不给病毒以传播的机会。而往往,就有一些人不响应国家和党的号召,面对此次病毒不以为然,依然我行我素,自由行走,给病毒有机可乘,给自己和他人的生命安全造成重大安全隐患。如果有一套疫情防护门禁系统,可以通过数字图像的采集识别,判别出该人是否是疑似人员,并且做出相应警示报警等,显得尤为重要和迫切。随着计算机视觉技术的逐年精进,基于图像的门禁识别迅速吸引了人们的视线。 首先介绍人脸识别的相关背景、意义及现状,并对目前的几种主要人脸识别技术的方法,如子空间算法、支持向量机、神经网络分类和稀疏编码分类等进行介绍。另外对人脸识别实验中常用的数据库进行介绍。我们运用数理统计的知识,将PCA原理进行详细的解释,并进行仿真。然后根据仿真的结果,抽取了其中一个测度,然后将其进行总结,然后匹配。 关键词:人脸识别,PCA算法,特征提取,欧氏距离 目 录 第一章 绪 论 3 1.1 人脸识别的背景和意义 3 第二章 人脸识别技术综述 4 2.1 人脸识别技术的流程 4 第三章 PCA的人脸特征提取 5 3.1 PCA算法 5 3.1.1 PCA算法的基本原理 5 3.2 基于PCA的特征提取 6 第四章 基于PCA和欧式距离的分类器的人脸识别 8 4.1 MATLAB人机交互界面GUI介绍 8 4.2系统框架以及GUI设计 8 4.3 程序仿真及调试结果 10 4.3.1人脸库采集 10 4.3.2特征提取仿真分析 11 4.3.3 模板匹配及识别的仿真分析 11 参考文献 12 第一章 绪 论 1.1 人脸识别的背景和意义 人脸识别是近年来研究领域的热门话题,是生物识别的一个重要分支和组成部分。生物识别技术是通过人体本身具有的生物特征对人的身份进行鉴定的方法。这些特征包括人脸、指纹、虹膜、语音、步态以及笔迹等。生物识别在安全保障等众多领域应用广泛,具有不易伪造、方便快捷、防伪性能好等优点。本设计为基于人脸识别的门禁系统,可以将疑似病人设置为库内人员,当小区里面有人需要外出时,进行人脸采集,人脸定位,跟库里面的人脸进行比对,当识别为库内人员的时候,进行疑似病例不可外出的警示,否则则可以放开门禁给以通行。 第二章 人脸识别技术综述 2.1 人脸识别技术的流程 人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像,并自动在图像中检测人脸,进而对检测到的人脸进行脸部的一系列相关技术。 因此,机器对人脸进行识别的过程与人类视觉识别人脸的过程类似,大致可分为四个步骤,如图2-1 所示。 图2-1 人脸识别流程图 (1) 图像采集:不同的人脸图像都能通过摄像镜头采集下来,静态图像、动态图像、不同表情都可以采集。但是受人脸采集的影响因素,这一步骤不是很容易实现,因此,许多著名的实验室,通过严格控制摄像机的位置,来创建一些规范的人脸库(包括姿态、面部表情的变化),通过建立成熟的人脸数据库来供研究者实验。 (2) 人脸检测:人脸检测主要用于人脸识别的预处理,它能将图像中人脸的位置准确的标出来。人脸图像中包含的特征十分丰富,人脸检测就是挑选其中有用的信息,利用这些特征来实现人脸检测。人脸识别的预处理是服务于特征提取的。但是,系统获取的原始图像受到各种条件的限制和随机干扰,不能直接使用,必须对原始图像进行图像预处理。图像预处理的方法有中值滤波、灰度拉伸、归一化处理以及锐化等[6]。 (3) 特征提取:人脸特征提取就是针对人脸的某些特征进行的。特征提取从原始模式信息中提取出最有利于分类的特征,同时达到了降维的目的。其本质是在适当降维的同时,保留最有效的特征。 (4) 分类识别:将提取的人特征数据与数据库中存储的数据进行搜索匹配,当相似度超过一个阈值,则把匹配得到的结果输出。人脸识别就是将采集到的人脸特征与数据库里的人脸特征进行比较
1
基于OpenCV的人脸识别,只需要在pycharm终端中下载好相关的包即可,# opencv 的安装pip install opencv-python# pillow的安装,注:pillow为图像处理包。pip install pillow # contrib的安装,用于训练自己的人脸模型的一个OpenCV扩展包pip instal opencv-contrib-python# pyttsx3 文字转语音库使用pip install pyttsx3。
2022-03-25 01:36:57 12.41MB 人脸识别
1