tf2crf 一个简单的CRF层用于tensorflow 2 keras 支持keras遮罩 安装 $ pip install tf2crf 特征 易于使用的带有张量流的CRF层 支持混合精度训练 支持具有DSC丢失的ModelWithCRFLossDSCLoss,这会在数据不平衡的情况下提高f1得分(请参阅) 注意力 在keras_contrib中添加CRF之类的内部内核,因此现在无需在CRF层之前堆叠Dense层。 我已经更改了将损耗函数和精度函数放在CRF层中的以前的方式。 相反,我选择使用ModelWappers(称为jaspersjsun),它更干净,更灵活。 尖端 tensorflow> = 2.1.0建议使用与您的tf版本兼容的最新tensorflow-addons。 例子 import tensorflow as tf from tf2CRF import CRF
2023-04-09 18:10:30 8KB Python
1
使用CNN进行手语检测:使用人的手势和使用CNN-Keras-tensorflow的手势控制计算器识别ASL字母和数字
2023-04-07 19:13:38 24.86MB opencv scikit-learn python3 cnn-keras
1
基于 Keras LSTM 的中文评论情感分析(附完整代码).zip
2023-04-05 22:15:48 7.29MB Keras LSTM
1
《Keras #0 - 搭建Keras环境,跑一个例程》附属文件,仅供个人学习,转载及其他使用需授权
2023-04-01 17:10:55 4.48MB Keras
1
Keras中的字符级CNN 该存储库包含用于字符级卷积神经网络的Keras实现,用于AG新闻主题分类数据集上的文本分类。 已实现以下模型: 张翔,赵俊波,严乐村。 。 NIPS 2015 Yoon Kim,Yacine Jernite,David Sontag,Alexander M.Rush。 。 AAAI 2016 白少杰,齐科·科特尔(J. Zico Kolter),弗拉德·科特(Vladlen Koltun)。 。 ArXiv预印本(2018) Kim的CharCNN最初是经过端到端训练的语言建模管道的一部分,但已被改编为文本分类。 用法 安装依赖项(Tensorflow 1.3和Keras 2.1.3): $ pip install -r requirements.txt 在config.json文件中指定训练和测试数据源以及模型超参数。 运行main.py文件,
2023-03-29 19:13:07 11.26MB Python
1
简介:该垃圾分类项目主要在于对各种垃圾进行所属归类,本次项目采用keras深度学习框架搭建卷积神经网络模型实现图像分类,最终移植在树莓派上进行实时视频流的垃圾识别。 前期:主要考虑PC端性能,并尽可能优化模型大小,训练可采用GPU,但调用模型测试的时候用CPU运行,测试帧率和准确性(测试10张左右图像的运行时间取平均值或实时视频流的帧率)。 后期:部署在树莓派端,在本地进行USB摄像头实时视频流的垃圾分类(归类)。 框架语言: keras+python。 PC端: Keras: 2.2.0 Opencv: 3.4 Python: 3.6 Numpy:1.16
2023-03-26 19:11:03 4.17MB 树莓派 keras 垃圾识别 深度学习
1
人脸识别喀拉拉邦 该存储库的过程包括face detection , affine transformation , extract face features , find a threshold to spilt faces 。 然后在数据集上评估结果。 要求: dlib(19.10.0) keras(2.1.6) tensorflow(1.7.0) opencv-python的(3.4.0.12) 待办事项清单 InceptionV3后端 MobileNet后端 VGG16后端 ResNet50后端 Xception后端 DenseNet后端 人脸检测和仿射变换 我将Dlib和opencv用于此预处理过程 。 Dlib进行快速人脸检测,而opencv进行裁剪和仿射变换。 深度学习功能提取 我使用几种基本的深度学习模型从预处理的图像中提取128个特征。 损失就是tr
2023-03-25 17:29:43 67KB face-recognition facenet triplet-loss Python
1
先决条件: nltk(TweetTokenizer) 凯拉斯张量流麻木科学的gensim(如果您使用的是word2vec) itertools 克隆存储库: git clone :AniSkywalker / SarcasmDetection.git cd SarcasmDetection / src / 您可以在以下链接中找到经过训练的模型文件 在/ resource / text_model / weights /中下载经过训练的模型 运行脚本: python sarcasm_detection_model_CNN_LSTM_DNN.py 如果要使用自己的数据训练模型,可以将“训练,开发
2023-03-20 21:21:46 3.17MB twitter keras cnn lstm
1
介绍文本向量化、tfidf、主题模型、word2vec,既会涉及理论,也会有详细的代码和案例进行讲解,希望在梳理自身知识体系的同时也能对想学习文本挖掘的朋友有一
2023-03-18 11:48:16 1.16MB 数据挖掘 sklearn keras word2vec
1
孪生LSTM网络(Siamese-LSTM) 本项目是基于孪生LSTM网络+注意力机制+曼哈顿距离(Manhattan distance)实现的句对相似度计算。 中文训练数据为蚂蚁金服句对数据,约4万组,正负样本比例1:3.6;英文训练数据来自Kaggle上的Quora句对数据,约40万组,正负样本比例1:1.7。新增一组翻译数据:使用Google Translator将Quora数据翻译成中文。 资料 参考文献 中国大陆可能无法访问《How to predict...Manhattan LSTM》一文,请直接查看本项目中附件之参考博客 其它数据 英文词向量: 英文词向量: 中文词向量: 工程参考 Original author's GitHub 一些网络设计思路 使用 训练 $ python3 train.py $ type cn for Chinese Data or en for
2023-03-17 22:42:46 40.91MB keras attention manhattan-distance siamese-lstm
1