PyTorch实现基于Transformer的神经机器翻译
2021-10-10 18:38:13 468KB Python开发-机器学习
1
国内外机器翻译比较研究-基于百度和谷歌在线翻译调查.zip
2021-10-06 13:03:22 2KB
机器翻译词对齐的 Python 实现。 以 'python .py > ' 运行选项:-n num_lines 从输入文件中获取更少的行 -d 获取非默认文件,例如:sample ibm1.py:实施 IBM 模型 1 ibm2.py:实施 IBM 模型 2 hmm.py:实施 HMM 模型进行字对齐 fastAlign.py:实施快速对齐方法,但使用固定的 lambda 参数 alignIntersect.py:使用基于交集的对齐方式Dice 的系数 modelAgreement.py:为 IBM Model2 实现基于交集的对齐 带有 .a 扩展名的相应名称的文件是从这些模型中获得的前 1000 个句子的对齐,这些模型在英语和法语的完整 hansards 数据上进行训练。 它们可以与分数对齐一起运行以进行 AER 评估。 t_
2021-09-30 15:13:54 6.68MB Fortran
1
OpenNMT: 开源神经机器翻译系统OpenNMT的Pytorch一个移植
2021-09-25 22:26:27 33.9MB Python开发-机器学习
1
神经机器翻译模型,用于将阿塞拜疆语翻译成英语。 在这个项目中,我发现了如何开发一种神经机器翻译系统来将阿塞拜疆语翻译成英语。 我使用阿塞拜疆语到英语术语的数据集作为语言学习卡片的基础。 该数据集可从ManyThings.org网站获得,其示例摘自Tatoeba项目。 清除文本数据后,就可以进行建模和定义了。 我已经在这个问题上使用了编解码器LSTM模型。 在这种架构中,输入序列由称为编码器的前端模型编码,然后由称为解码器的后端模型逐字解码。 使用有效的Adam方法对模型进行训练,以实现随机梯度下降,并最大程度地减少了分类损失函数,因为我们将预测问题构造为多类分类。 还创建了模型图,为模型配置提供了另一个视角。 接下来,对模型进行训练。 在现代CPU硬件上,每个时期大约需要30秒。 无需GPU。 然后,我们可以对数据集中的每个源短语重复此操作,并将预测结果与英语中的预期目标短语进行比
2021-09-25 21:42:45 1.55MB tensorflow neural-machine-translation Python
1
PyOpenNMT:开源神经机器翻译 这是端口, 是一种开源(MIT)神经机器翻译系统。 完整文档可。 该代码仍在大量开发中(0.1版之前的版本)。 如果您需要稳定的版本,我们建议分叉。 特征 实现了以下OpenNMT功能: 注意和辍学的多层双向RNN 数据预处理 从检查点保存和加载 批处理和波束搜索进行推理(翻译) 多GPU Beta功能: 上下文门 多种源和目标RNN(lstm / gru)类型和注意力(dotprod / mlp)类型 图像到文本处理 源词功能 “注意是您所需要的” TensorBoard /蜡笔记录 复制,覆盖和结构化关注 快速开始 步骤1:预处理数据 python preprocess.py -train_src data/src-train.txt -train_tgt data/tgt-train.txt -valid_src data/src-
2021-09-25 21:09:48 7.28MB Python
1
机器学习、机器翻译训练语料 、未处理、获取前两列对话即可
2021-09-24 15:06:06 3.59MB 机器翻译训练语料 机器学习
1
在cygwin下安装并成功运行srilm。 Srilm是著名的自然语言处理中语言模型的计算开源程序。 本文档为国立台湾师范大学陈柏林教授课件。 给各位自然语言处理同仁共享。
2021-09-20 01:28:16 349KB srilm cygwin 语言模型 机器翻译
1
python3读取翻译Excel后写入新Excel 调用的是百度翻译API,自备百度翻译API应用,以及python的模块
2021-09-17 08:35:49 3KB excel python 机器翻译
1
Statistical Machine Translation 一本介绍统计机器翻译的书
2021-09-09 14:27:31 5.65MB 机器学习 深度学习 机器翻译
1