boost_date_time-vc100-mt-1_49.dll
2022-04-19 18:01:30 17KB 机器翻译 人工智能 自然语言处理 nlp
1
国内图形界面的Python版 tkinter 的资料非常缺乏,很多大学生都来问我要代码,这里上传系列国外视频,加上机器翻译的中文字幕,共大家参考,如果需要讲解,就请多转发点赞。还可以直接订阅我的专栏,我会在那里分享更干的干货。
2022-04-18 09:08:05 323.9MB python 音视频 机器翻译 开发语言
1
OVP开放虚拟平台的用户手册,该版本为机器翻译版本,翻译的质量不是特别好,对英文不好的同学来说还是有极大帮助的,阅读时需对照英文原版,整体来说还不错的。
2022-04-14 18:40:29 2.64MB OVP OVPSIm Imperas
1
机器翻译WMT14数据集,ACL2014公布的share task,很多模型都在这上benchmark
2022-04-03 12:22:14 547.08MB NLP NMT
1
matlab代码左移神经机器翻译(seq2seq)教程 作者:Thang Luong,Eugene Brevdo,赵瑞 此版本的教程要求。 要使用稳定的TensorFlow版本,请考虑其他分支,例如。 介绍 序列到序列(seq2seq)模型(,)在各种任务(例如机器翻译,语音识别和文本摘要)中都取得了巨大的成功。 本教程为读者提供了对seq2seq模型的全面理解,并展示了如何从头开始构建具有竞争力的seq2seq模型。 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意包装器,TensorFlow 1.2数据迭代器 结合我们在构建递归模型和seq2seq模型方面的专业知识 提供有关构建最佳NMT模型和复制的提示和技巧。 我们认为,提供人们可以轻松复制的基准非常重要。 因此,我们提供了完整的实验结果,并在以下公开可用的数据集上对模型进行了预训练: 小型:由ET提供的TED演讲的英语-越南语平行语料库(133K句子对)。 大
2022-03-29 19:42:04 10.53MB 系统开源
1
神经机器翻译 这是使用Encoder-Decoder机制以及Attention机制(( )于2016年引入的神经机器翻译的一种实现。Encoder-decoder体系结构通常使用一种编码器,该编码器对将源句子转换成固定长度的向量,解码器根据该向量生成翻译。 本文推测使用固定长度向量是提高此基本编码器-解码器体系结构性能的瓶颈,并建议通过允许模型自动(软)搜索源语句的一部分来扩展此范围。与预测目标词相关,而不必明确地将这些部分形成为一个困难的部分。 编码器: seq2seq网络的编码器是RNN,它为输入句子中的每个单词输出一些值。 对于每个输入字,编码器输出一个向量和一个隐藏状态,并将隐藏状态用于下一个输入字。 解码器: 在最简单的seq2seq解码器中,我们仅使用编码器的最后一个输出。 最后的输出有时称为上下文向量,因为它对整个序列中的上下文进行编码。 该上下文向量用作解码器的初始隐
2022-03-28 11:05:27 5.82MB encoder decoder attention mt
1
【中文】【吴恩达课后编程作业】Course 5 - 序列模型 - 第三周作业 - 机器翻译与触发词检测
2022-03-16 13:03:49 209.31MB 深度学习 吴恩达 序列模型 课后作业
1
人机交互式机器翻译方法研究与实现.pdf
1
轻量级机器翻译数据集,en-cn为英文与中文,en-fr为英文与法文
2022-03-03 17:18:39 4.16MB 自然语言处理
1