THUMT:神经机器翻译的开源工具包 内容 介绍 机器翻译是一种自然语言处理任务,旨在自动使用计算机翻译自然语言。 最近几年见证了端到端神经机器翻译的飞速发展,这已成为实际MT系统中的新主流方法。 THUMT是由开发的用于神经机器翻译的开源工具包。 THUMT的网站是: ://thumt.thunlp.org/。 在线演示 THUMT的在线演示可从。 涉及的语言包括古代汉语,阿拉伯语,中文,英语,法语,德语,印尼语,日语,葡萄牙语,俄语和西班牙语。 实作 THUMT当前具有三个主要实现: :与开发的新实现。 它实现了Transformer模型( Transformer )( )。
1
OpenNMT-py:开源神经机器翻译这是OpenNMT(一种开源(MIT)神经机器翻译系统)的Pytorch端口。 它的设计宗旨是便于研究,以便尝试翻译,摘要,OpenNMT-py中的新思想:开源神经机器翻译这是开源(MIT)神经机器翻译系统OpenNMT的PyTorch端口。 它旨在便于研究,以尝试在翻译,摘要,图像到文本,形态学和许多其他领域中的新思想。 一些公司已经证明该代码已可以投入生产。 我们热爱贡献。 请在“问题”页面上查阅“ Contributions Welcome”标记的帖子。 提出问题之前,请确保您已阅读要求a
2022-12-26 21:57:29 77.91MB Python Deep Learning
1
OpenNMT: 开源神经机器翻译系统OpenNMT的Pytorch一个移植 OpenNMT-py:开源神经机器翻译 这是 OpenNMT 的 Pytorch 端口,OpenNMT 是一个开源 (MIT) 神经机器翻译系统。 它旨在便于研究,在翻译、摘要、图像到文本、形态学和许多其他领域尝试新想法。 OpenNMT-py 作为一个协作开源项目运行。 它目前由 Sasha Rush(剑桥,马萨诸塞州)、Ben Peters(萨尔布吕肯)和 Janyu Zhan(深圳)维护。 原始代码由 Adam Lerer (NYC) 编写。 代码库接近稳定的 0.1 版本。 如果您想要稳定的代码,我们目前建议分叉。 我们喜欢贡献。 请查阅问题页面以获取任何“欢迎贡献”标记的帖子。 目录 要求 功能快速入门 高级引用要求 pip install -r requirements.txt 功能 实现了以下 OpenNMT 功能: 多层双向 RNN,具有注意力和丢失数据预处理从检查点保存和加载 带有批处理和波束搜索的推理(翻译) 上下文gate 多源和目标 RNN (lstm/gru) 类型
2022-12-18 19:47:42 77.91MB 机器学习
1
OpenNMT-py:开源神经机器翻译 OpenNMT-py是项目的版本, 项目是一个开源(MIT)神经机器翻译框架。 它被设计为易于研究的,可以尝试翻译,摘要,形态和许多其他领域的新思想。 一些公司已经证明该代码可以投入生产。 我们喜欢捐款! 请查看带有标签的问题。 提出问题之前,请确保您已阅读要求和文档示例。 除非有错误,否则请使用或提出问题。 公告-OpenNMT-py 2.0 我们很高兴宣布即将发布OpenNMT-py v2.0。 此版本背后的主要思想是-几乎完整地改造了数据加载管道。 引入了新的“动态”范式,允许对数据进行动态转换。 这具有一些优点,其中包括: 删除或
1
PyTorch实现基于Transformer的神经机器翻译
2022-07-01 21:04:17 468KB PyTorch Transformer 神经机器翻译
matlab代码左移神经机器翻译(seq2seq)教程 作者:Thang Luong,Eugene Brevdo,赵瑞(,) 此版本的教程要求。 要使用稳定的TensorFlow版本,请考虑其他分支,例如。 如果您使用此代码库进行研究,请引用。 介绍 序列到序列(seq2seq)模型(,)在各种任务(例如机器翻译,语音识别和文本摘要)中都取得了巨大的成功。 本教程为读者提供了对seq2seq模型的全面理解,并展示了如何从头开始构建具有竞争力的seq2seq模型。 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意包装器,TensorFlow 1.2数据迭代器 结合我们在构建递归模型和seq2seq模型方面的专业知识 提供有关构建最佳NMT模型和复制的提示和技巧。 我们认为,提供人们可以轻松复制的基准非常重要。 结果,我们提供了完整的实验结果,并在以下公开可用的数据集上对我们的模型进行了预训练: 小型:由ET提供的TED演
2022-06-15 20:56:44 832KB 系统开源
1
nmt.matlab, 神经机器翻译系统的训练状态代码 基于神经网络的神经网络的有效方法本文介绍了基于神经网络的神经机器翻译系统中训练神经机器翻译系统的代码,并给出了基于神经网络的。插件功能:多层双语编码解码器模型:gpu支持。注意机制:全局模型和局部模型。beam搜索解码器:可以解
2022-06-15 20:43:40 1.39MB 开源
1
matlab代码左移神经机器翻译(seq2seq)教程 作者:Thang Luong,Eugene Brevdo,赵瑞 此版本的教程要求。 要使用稳定的TensorFlow版本,请考虑其他分支,例如。 介绍 序列到序列(seq2seq)模型(,)在各种任务(例如机器翻译,语音识别和文本摘要)中都取得了巨大的成功。 本教程为读者提供了对seq2seq模型的全面理解,并展示了如何从头开始构建具有竞争力的seq2seq模型。 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意包装器,TensorFlow 1.2数据迭代器 结合我们在构建递归模型和seq2seq模型方面的专业知识 提供有关构建最佳NMT模型和复制的提示和技巧。 我们认为,提供人们可以轻松复制的基准非常重要。 因此,我们提供了完整的实验结果,并在以下公开可用的数据集上对模型进行了预训练: 小型:由ET提供的TED演讲的英语-越南语平行语料库(133K句子对)。 大
2022-03-29 19:42:04 10.53MB 系统开源
1
神经机器翻译 这是使用Encoder-Decoder机制以及Attention机制(( )于2016年引入的神经机器翻译的一种实现。Encoder-decoder体系结构通常使用一种编码器,该编码器对将源句子转换成固定长度的向量,解码器根据该向量生成翻译。 本文推测使用固定长度向量是提高此基本编码器-解码器体系结构性能的瓶颈,并建议通过允许模型自动(软)搜索源语句的一部分来扩展此范围。与预测目标词相关,而不必明确地将这些部分形成为一个困难的部分。 编码器: seq2seq网络的编码器是RNN,它为输入句子中的每个单词输出一些值。 对于每个输入字,编码器输出一个向量和一个隐藏状态,并将隐藏状态用于下一个输入字。 解码器: 在最简单的seq2seq解码器中,我们仅使用编码器的最后一个输出。 最后的输出有时称为上下文向量,因为它对整个序列中的上下文进行编码。 该上下文向量用作解码器的初始隐
2022-03-28 11:05:27 5.82MB encoder decoder attention mt
1
png格式图片,2790张
2022-01-21 20:05:32 243.6MB 水果 蔬菜 识别 数据集