华为出品-友商配置搬迁神器—网络搬迁工具 NMT
2023-01-05 17:18:52 46.18MB 网络搬迁工具 网络工程师
1
nmt.matlab, 神经机器翻译系统的训练状态代码 基于神经网络的神经网络的有效方法本文介绍了基于神经网络的神经机器翻译系统中训练神经机器翻译系统的代码,并给出了基于神经网络的。插件功能:多层双语编码解码器模型:gpu支持。注意机制:全局模型和局部模型。beam搜索解码器:可以解
2022-06-15 20:43:40 1.39MB 开源
1
NLP_pytorch_project 1-聊天机器人 001-transformer_chatbot 实现方式是标准的transformer。 002-bert_chatbot 参考UNILM 2嵌入 001-skipgram-word2vec.py 002-bert.py 003-albert.py 004-NPLM.py 3-NMT 001-transformer_NMT 002-gru_seq2seq_attention 003-lstm_seq2seq_attention 4文本分类 001-TextCNN.py 002-BILSTM+Attention.py 003-CharCNN 004-BERT_Classification 005-ERNIE_Classification 006-ALB
2022-06-14 17:54:50 71.2MB text-classification chatbot mrc text-generation
1
基于Transformer NMT模型的聊天机器人 nmt-chatbot是使用的chatbot的实现。 该项目的主要目的是制作一个聊天机器人,但它与神经机器翻译完全兼容,并且仍可用于两种语言之间的句子翻译。 直接用法 打开以下Google Colab笔记本即可随时随地使用它。 安装 克隆 使用以下命令将此仓库克隆到本地计算机 $ git clone https://github.com/Ar9av/transformer-nmt-chatbot.git 更改工作目录 $ cd transformer-nmt-chatbot 设置 使用以下命令安装需求 $ pip install -r requirements.txt $ sudo apt-get install chromium-chromedriver 测试聊天机器人 在config.yml更改type参数以test并运行以下命令
2022-06-14 17:50:59 80.21MB Python
1
机器翻译 bpe——bytes-pair-encoding以及开源项目subword-nmt快速入门-附件资源
2022-04-26 16:54:39 106B
1
机器翻译WMT14数据集,ACL2014公布的share task,很多模型都在这上benchmark
2022-04-03 12:22:14 547.08MB NLP NMT
1
matlab代码左移神经机器翻译(seq2seq)教程 作者:Thang Luong,Eugene Brevdo,赵瑞 此版本的教程要求。 要使用稳定的TensorFlow版本,请考虑其他分支,例如。 介绍 序列到序列(seq2seq)模型(,)在各种任务(例如机器翻译,语音识别和文本摘要)中都取得了巨大的成功。 本教程为读者提供了对seq2seq模型的全面理解,并展示了如何从头开始构建具有竞争力的seq2seq模型。 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意包装器,TensorFlow 1.2数据迭代器 结合我们在构建递归模型和seq2seq模型方面的专业知识 提供有关构建最佳NMT模型和复制的提示和技巧。 我们认为,提供人们可以轻松复制的基准非常重要。 因此,我们提供了完整的实验结果,并在以下公开可用的数据集上对模型进行了预训练: 小型:由ET提供的TED演讲的英语-越南语平行语料库(133K句子对)。 大
2022-03-29 19:42:04 10.53MB 系统开源
1
轻量级机器翻译数据集,en-cn为英文与中文,en-fr为英文与法文
2022-03-03 17:18:39 4.16MB 自然语言处理
1
PyOpenNMT:开源神经机器翻译 这是端口, 是一种开源(MIT)神经机器翻译系统。 完整文档可。 该代码仍在大量开发中(0.1版之前的版本)。 如果您需要稳定的版本,我们建议分叉。 特征 实现了以下OpenNMT功能: 注意和辍学的多层双向RNN 数据预处理 从检查点保存和加载 批处理和波束搜索进行推理(翻译) 多GPU Beta功能: 上下文门 多种源和目标RNN(lstm / gru)类型和注意力(dotprod / mlp)类型 图像到文本处理 源词功能 “注意是您所需要的” TensorBoard /蜡笔记录 复制,覆盖和结构化关注 快速开始 步骤1:预处理数据 python preprocess.py -train_src data/src-train.txt -train_tgt data/tgt-train.txt -valid_src data/src-
2021-09-25 21:09:48 7.28MB Python
1
这个案例主要是利用tfa框架Sequence to Sequence Model Architecture中的Attention以及Encoder-Decoder方法实现神经机器翻译(Neural Machine Translation,NMT),当然翻译的准确性不可能像BERT之类的那么好,但可以作为一个入门实验,通过这个案例,大家应该对Attention的使用有了更清晰、更全面的认识。
2021-08-28 18:14:36 4.39MB attention 机器翻译 自然语言处理 nlp