对峙 对面部识别进行物理对抗攻击的步骤 在应用蒙版之后,将左侧的输入图像检测为右侧的目标图像。 安装 创建一个虚拟环境 conda create -n facial pip 克隆仓库 git clone https://github.com/392781/Face-Off.git 安装所需的库 pip install -r requirements.txt 导入和使用! from adversarial_face_recognition import * ` 有关培训说明,请查看以开始少于30行。 用法 该库的目的是再次制造对抗攻击,再用FaceNet人脸识别器。 这是初步的工作,目的是使用一个可以戴在脸上的面具来产生更强壮的物理攻击。 当前管道由对齐的输入图像和计算出的蒙版组成。 然后使用dlib定向梯度检测器直方图将其输入到面部检测器中,以测试是否仍检测到面部。 然后将其传
1
vgg脸 使用PyTorch的人脸分类Python脚本 需要安装PyTorch 运行test.py文件 从获得的原始Caffe模型和测试图像/names.txt 从获得的.h5和
2021-12-04 11:12:15 78KB python face-recognition caffemodel pytorch-cnn
1
Multilayer neural networks trained with the back-propagation algorithm constitute the best example of a successful gradientbased learning technique. Given an appropriate network architecture, gradient-based learning algorithms can be used to synthesize a complex decision surface that can classify high-dimensional patterns, such as handwritten characters, with minimal preprocessing. This paper reviews various methods applied to handwritten character recognition and compares them on a standard handwritten digit recognition task. Convolutional neural networks, which are specifically designed to deal with the variability of two dimensional (2-D) shapes, are shown to outperform all other techniques. Real-life document recognition systems are composed of multiple modules including field extraction, segmentation, recognition, and language modeling. A new learning paradigm, called graph transformer networks (GTN’s), allows such multimodule systems to be trained globally using gradient-based methods so as to minimize an overall performance measure. Two systems for online handwriting recognition are described. Experiments demonstrate the advantage of global training, and the flexibility of graph transformer networks. A graph transformer network for reading a bank check is also described. It uses convolutional neural network character recognizers combined with global training techniques to provide record accuracy on business and personal checks. It is deployed commercially and reads several million checks per day.
2021-12-03 23:30:35 889KB 卷积神经网络
1
字母识别 使用Keras和TensorFlow实现的卷积神经网络。 它使用具有26个大写字母数字符号的类似MNIST的数据集。 使用生成的数据对模型进行训练,训练后,权重将保存并为TensorFlow.js支持的格式。 实时网络应用程序在。
2021-12-03 19:52:24 4.3MB JavaScript
1
DNN-Speech-Recognition - 基于深度神经网络的自动语音识别器,首先搭建几个简单网络进行尝试,然后根据测试结果来构建自己的深度神经网络模型。可用于机器学习/深度学习/自然语言处理等方面课程的课程项目。数据集是LibriSpeech的部分数据,不包含在此压缩包中,可以自行下载。
2021-12-02 18:44:56 1.8MB DNN ASR
1
中国象棋棋子识别 西北大学的EECS349机器学习(Doug Downey讲授) 埃文·钱恩 | 戴( Dai) 目标 我们项目的目标是对中国象棋件进行分类。 给定国际象棋棋子的图像(最上面是繁体汉字),我们希望分类器能以很高的置信度识别国际象棋棋子的颜色和类型。 总而言之,输入是某个国际象棋棋子的相机框架,输出是相应棋子类型的颜色和类型。 这是机器人下象棋的重要组成部分,这是我们的最终目标。 为了达到我们的最终目标,我们还需要对中国象棋棋子进行实时(或视频流)分类,我们将在接下来的页面中进行实验并根据视频进行分类。 选型 众所周知,要解决图像分类问题,CNN绝对是ML / DL体系结构中的最佳选择。 我们测试了几种CNN结构,主要集中在我们自己构建的玩具CNN模型和经过微调的VGG16 CNN模型上。 我们使用Keras(以TensoeFlow作为后端)实现了这些模型。 对于玩具C
2021-12-02 17:10:19 18.28MB Python
1
我们介绍了带变分推理的贝叶斯卷积神经网络,这是卷积神经网络(CNN)的一种变体,其中权重的难处理的后验概率分布是由Backprop的Bayes推断的。 我们证明我们提出的变分推断方法是如何实现的性能相当于频率论推理在几个数据集(MNIST,CIFAR10,CIFAR100),如所描述的相同结构。 贝叶斯vs频频方法中的过滤器权重分布 整个CNN的全贝叶斯视角 图层类型 该存储库包含两种类型的贝叶斯lauer实现: BBB(Backprop的Bayes): 基于。 该层分别对所有权重进行采样,然后将其与输入组合以从激活中计算出一个样本。 BBB_LRT(使用本地重新参数化技巧的Backprop进行Bayes操作): 这一层与本地重新参数伎俩结合贝叶斯通过Backprop。 这个技巧使得可以直接从激活中的分布中采样。 制作自定义贝叶斯网络? 要创建自定义贝叶斯网络,请继承layers.m
2021-12-01 15:13:56 46.78MB python pytorch bayesian-network image-recognition
1
文本检测和识别综述论文
2021-11-30 17:02:23 2.34MB 文本检测和综述论文
1
《Backpropagation applied to Handwritten zip code recognition》,Yan LeCun于1989年所作
2021-11-30 12:38:50 5.4MB CNN 论文
1