BERT-BiLSTM-CRF-NER Tensorflow solution of NER task Using BiLSTM-CRF model with Google BERT Fine-tuning 使用谷歌的BERT模型在BLSTM-CRF模型上进行预训练用于中文命名实体识别的Tensorflow代码' 中文文档请查看 如果对您有帮助,麻烦点个star,谢谢~~ Welcome to star this repository! The Chinese training data($PATH/NERdata/) come from: The CoNLL-2003 data($PATH/NERdata/ori/) come from: The evaluation codes come from: Try to implement NER work based on google'
2021-10-17 21:06:39 482KB crf named-entity-recognition ner bert
1
DeepSpeech-pytorch 使用DeepSpeech模型的PyTorch中的端到端语音识别模型 怎么跑 首先,安装依赖项 # clone project git clone https://github.com/jiwidi/DeepSpeech-pytorch # install project cd DeepSpeech-pytorch pip install -e . pip install -r requirements.txt 准备运行! 执行: python train . py #Will run with default parameters and donwload the datasets in the local directory Tensorboard日志将保存在runs/文件夹下 该模型 该模型是DeepSpeech 2的从在人的变化
1
matlab眼睛识别源码虹膜识别 这是基于 . 可以找到他在 MatLab 和 Python 中实现的原始虹膜识别系统。 描述 该系统对于实际应用程序来说是不完整的。 一个完整的系统必须有一个特定的相机来捕捉眼睛的虹膜。 然而,这些相机非常昂贵。 因此可用的图像数据库和用于替换昂贵的相机。 所有测试和机器学习分类都是使用这些数据库中的图像进行的。 通常,识别系统涉及两种操作模式,即注册和验证。 注册是从眼睛图像中提取特征并将其保存到模板数据库中。 验证允许用户提取他们的特征并与模板数据库中的现有实体进行匹配,以识别输入图像的来源。 这些系统利用所有 CPU 内核来提高计算时间。 设置 这些系统在 Ubuntu 20.04 操作系统上部署和执行,Python 解释器是 Python 3.8.5。 一、创建虚拟环境 python3 -m venv iris_venv source iris_venv/bin/activate 克隆这个仓库 git clone https://github.com/Th3nn3ss/python-iris-recognition.git cd python-
2021-10-17 19:58:00 66.13MB 系统开源
1
该代码由基于霍夫变换的自动分割系统组成,能够定位圆形虹膜和瞳Kong区域、遮挡眼睑和睫毛以及反射。 然后将提取的虹膜区域归一化为具有恒定尺寸的矩形块,以解决成像不一致的问题。 最后,提取来自一维 Log-Gabor 滤波器的相位数据并将其量化为四个级别,以将虹膜的独特模式编码为逐位生物识别模板。 采用汉明距离对虹膜模板进行分类,如果统计独立性测试失败,则发现两个模板匹配。
2021-10-17 15:24:14 122KB 开源软件
1
前言 本章介绍如何使用Tensorflow实现简单的声纹识别模型,首先你需要熟悉音频分类,没有了解的可以查看这篇文章。基于这个知识基础之上,我们训练一个声纹识别模型,通过这个模型我们可以识别说话的人是谁,可以应用在一些需要音频验证的项目。 环境准备 主要介绍libsora,PyAudio,pydub的安装,其他的依赖包根据需要自行安装。 Python 3.7 Tensorflow 2.0 安装libsora 最简单的方式就是使用pip命令安装,如下: pip install pytest-runner pip install librosa 如果pip命令安装不成功,那就使用源码安装,下载源码:, windows的可以下载zip压缩包,方便解压。 pip install pytest-runner tar xzf librosa-<版本号>.tar.gz 或者 unzip librosa-
2021-10-16 12:30:32 17KB tensorflow voice-recognition Python
1
该程序是为人脸表情识别研究实验人脸预处理阶段而开发的半自动人脸裁剪系统,因为大部分人脸表情数据库都是未经裁剪/裁切的,而去除背景是人脸表情识别预处理的重要一步。网上有很多人脸数据库,但大部分是未经裁剪/人脸裁切处理的,不能直接用于人脸表情识别试验。 该程序是为人脸表情识别研究实验人脸预处理阶段而开发的半自动人脸裁剪/人脸裁切系统,因为大部分人脸数据库都是未经裁剪的,而去除背景是人脸表情识别预处理的重要一步。 图像归一化为64*82大小,归一化方案请参见张一鸣,《人脸表情识别》。采用OpenCV+MFC制作,不提供源代码。用到的同学可以下载。 敬告:因为本程序读取.tif格式图像使用OpenCV函数,而.tif格式本身的复杂性导致没有通用的读取函数,故对有些.tif图像可能会出问题。
2021-10-15 17:51:58 3.69MB Face Cropping Expression Recognition
1
dlib在python3.8,windows 64位环境下程序包,pip安装即可使用,免环境配置。可以用于face_recognition 使用方法: pip install dlib-19.22.0-cp38-cp38-win_amd64.whl
2021-10-13 18:04:17 2.81MB python dlib 人脸识别 face_recognition
1
使用手势识别的CNNLSTM 使用GRIT数据集,构建了将2D CNN与LSTM相结合的模型,以从webCam视频提要中执行实时手势识别。 也使用LSTM建立了使用3D CNN的另一个模型。 目标 构建能够实时检测视频中手势的计算机视觉深度学习模型。 模型应能够在低端设备上运行。 (没有GPU) 模型应该可以快速训练(30分钟内进行训练) 在每个手势动作中使用有限的样本来提取可用的准确性。 预先处理 由于我们的动机是运动识别,因此我们首先必须检测帧序列之间的运动。 我使用时差法。 时间差异涉及两个或三个连续帧之间的差异,然后凝结连续帧之间的差异以提取运动对象的运动。 它非常容易且快速地进行计算,并且在动态环境中具有更好的性能。 使用等式计算差分图像: Δ = (
2021-10-11 17:53:31 17KB JupyterNotebook
1
hog svm matlab代码照片和视频的面部识别以及照片中数字的 OCR 这是我 2018-19 年在伦敦大学城市学院的计算机视觉模块的课程作业。 我们收到了几张同学(个人和团体)的照片。 我们的任务是准备图像数据,尝试不同的特征类型和分类器组合进行面部识别并报告结果。 (我已从我提交的报告中删除了所有面部图像)。 我使用了 HOG 和 SIFT 特征类型以及 CNN、MLP 和 SVM 分类器。 我们还负责使用 OCR 识别照片中每个人的数字。 完整的详细信息可以在报告中找到,所有代码都包含在下面。 要运行代码,您将需要 MATLAB(使用 R2018b 版来创建它)。 全部文件: Lesley Dwyer 计算机视觉报告,删除了人脸图像.pdf - 报告 RecogniseFace.m - 人脸识别功能 detectNum.m - 数字识别函数 trained_models_and_supporting_files 文件夹: bag.mat - 为 Bag of Fatures 创建的包; 需要使用 MLP_SURF 进行预测 CNN.mat - CNN 模型(*不可用 - 超
2021-10-11 16:00:24 1.67MB 系统开源
1
情绪识别 涉及使用脑电图(EEG)信号进行情感识别的项目。 EEG .mat文件来自其DEAP数据集,由伦敦玛丽皇后大学提供。 目的是确定脑电信号的生存力,以此作为识别“情感计算”思想的动机,从而识别不同的情绪状态。 数据集 数据集包含来自32位参与者的生理数据。 每个参与者观看了40个一分钟长的音乐视频摘录,并且在每次观看过程中都记录了生理信号。 然后,参与者根据效价,唤醒,喜好和支配性对每次观看视频的体验进行评分。 生理数据由40个特征组成-32个EEG读数通道; 另外还包括8个外围读数,例如皮肤温度,呼吸幅度,眼电图(EOG),心电图(ECG),皮肤电React(GSR),体积描记仪的血容量以及Z肌和斜方肌的肌电图(EMG),但所有这些都是多余的。 根据10-20系统进行EEG记录,并按照标准记录了32个EEG通道。 数据预处理 脑电记录 从数据集中获得的EEG数据已在源中进行
1