基于seq2seq模型的简单对话系统的tf实现,具有embedding、attention、beam_search等功能,数据集是Cornell Movie Dialogs
2021-07-17 16:22:11 2.52MB Python开发-机器学习
1
seq2seq seq2seq-pytorch是一个框架,用于在实现的基于注意力的序列到序列模型。 该框架具有用于seq2seq模型,训练,推理,检查点等的模块化和可扩展组件。 介绍 Seq2seq将一个序列转换为另一序列。 它通过使用递归神经网络(RNN)或更经常使用LSTM或GRU来避免梯度消失的问题。 每个项目的上下文是上一步的输出。 主要组件是一个编码器和一个解码器网络。 编码器将每个项目转换为包含该项目及其上下文的相应隐藏向量。 解码器使用先前的输出作为输入上下文来逆转该过程,将向量转换为输出项。 安装 此项目建议使用Python 3.6或更高版本。 我建议为此项目创建一个新的虚拟环境(使用virtualenv或conda)。 先决条件 Numpy: pip install numpy (有关安装Numpy的问题,请参阅)。 PyTorch:请访问以在您的环境中安装该版本。
2021-07-15 21:55:41 13.09MB Python
1
| 简体中文 pycorrector 中文文本纠错工具。音似、形似错字(或变体字)纠正,可用于中文拼音、笔画输入法的错误纠正。python3.6开发。 pycorrector依据语言模型检测错别字位置,通过拼音音似特征、笔画五笔编辑距离特征及语言模型困惑度特征纠正错别字。 Guide Question 中文文本纠错任务,常见错误类型包括: 谐音字词,如 配副眼睛-配副眼镜 混淆音字词,如 流浪织女-牛郎织女 字词顺序颠倒,如 伍迪艾伦-艾伦伍迪 字词补全,如 爱有天意-假如爱有天意 形似字错误,如 高梁-高粱 中文拼音全拼,如 xingfu-幸福 中文拼音缩写,如 sz-深圳 语法错误,如 想象难以-难以想象 当然,针对不同业务场景,这些问题并不一定全部存在,比如输入法中需要处理前四种,搜索引擎需要处理所有类型,语音识别后文本纠错只需要处理前两种, 其中'形似字错误'主要针对五笔或者笔画手
2021-07-15 12:34:01 13.6MB bert spelling-errors electra error-detection
1
这是一个实现人机对话模型的简单例子,相关说明在文档中都有,代码包含详细注释。运行环境可参看文章(https://blog.csdn.net/qq_26564783/article/details/103031323)
2021-06-30 10:00:16 2.23MB 人机对话 聊天机器人 LSTM seq2seq
1
深度系列 用于时间序列预测的深度学习模型。 楷模 Seq2Seq /注意 WaveNet 变压器/变压器 快速开始 from deepseries . models import Wave2Wave , RNN2RNN from deepseries . train import Learner from deepseries . data import Value , create_seq2seq_data_loader , forward_split from deepseries . nn import RMSE , MSE import deepseries . functional as F import numpy as np import torch batch_size = 16 enc_len = 36 dec_len = 12 series_len = 1000
2021-06-21 16:57:37 111KB deep-learning regression pytorch kaggle
1
时间序列预测 该存储库实现了时间序列预测的常用方法,尤其是TensorFlow2中的深度学习方法。 如果您有更好的主意,欢迎您贡献力量,只需创建PR。 如有任何疑问,请随时提出问题。 正在进行的项目,我将继续进行改进,因此您可能希望观看/加注此仓库以进行重新访问。 神经网络 波浪网 变压器 网络 拍子 甘 用法 安装所需的库 $ pip install -r requirements.txt 如有必要,下载数据 $ bash ./data/download_passenger.sh 训练模型如果需要,请设置custom_model_params (请参阅./deepts/models/
2021-06-17 19:01:17 595KB time-series tensorflow signal-processing cnn
1
用于语音识别的seq2seq模型的实现。 架构类似于Listen,Attend和Spell。
2021-05-13 11:00:56 642KB Python开发-机器学习
1
seq2seq 这是Tensorflow 2的seq2seq模型结构。 有三种模型架构,RNNSeq2Seq,RNNSeq2SeqWithAttention,TransformerSeq2Seq。 该存储库包含训练,评估,推断,转换为保存的模型格式脚本。 火车 例子 您可以通过运行以下脚本开始培训 $ python -m scripts.train \ --dataset-path " data/*.txt " \ --batch-size 2048 --dev-batch-size 2048 \ --epoch 90 --steps-per-epoch 250 --auto-encoding \ --learning-rate 2e-4 \ --device gpu \ --tensorboard-update-freq 50 --model-name Transformer
2021-04-23 15:36:38 389KB nlp seq2seq tensorflow2 Python
1
迷你seq2seq 在PyTorch中注意神经机器翻译的最小Seq2Seq模型。 此实现重点在于以下功能: 用于其他项目的模块化结构 最少的代码可读性 充分利用批次和GPU。 此实现依赖于来最大程度地减少数据集管理和预处理部分。 型号说明 编码器:双向GRU 解码器:具有注意机制的GRU 注意: 要求 GPU和CUDA Python3 火炬 火炬文本 空间 麻木 智慧(可选) 通过这样做下载令牌生成器: python -m spacy download de python -m spacy download en 参考文献 基于以下实现
1
tensorflow2.0之seq2seq+attention模型和实例
2021-03-27 10:07:09 75.57MB seq2seq attentio
1