Pytorch-seq2seq-光束搜索 带有注意力和贪婪搜索/波束搜索的Seq2Seq模型,用于在PyTorch中进行神经机器翻译。 此实现着重于以下功能: 用于其他项目的模块化结构 最少的代码以提高可读性 充分利用批处理和GPU。 解码方法贪婪搜索 解码方法波束搜索 此实现依赖于来最大程度地减少数据集管理和预处理部分。 Seq2Seq型号说明 seq2seq的主要结构采用 编码器:双向GRU 解码器:具有注意机制的GRU 注意力 解码方式 贪婪的搜索 光束搜索 要求 CUDA Python 3.6 PyTorch 1.4 火炬文本 空间 麻木 智慧(可选) 通过这样做下载令牌生成器: python -m spacy download de python -m spacy download en 去做 添加日志 更改为支持gpu和cpu,目前是基于gpu的代码实现
2021-08-25 16:09:18 5.75MB pytorch seq2seq beam-search nmt
1
机器翻译数据集 ACL 2014 NINTH WORKSHOP ON STATISTICAL MACHINE TRANSLATION
2021-08-23 21:05:56 423.85MB NLP NMT
1
matlab 代码左移 NMT 自己的注释 在源代码上添加了中文注释,注释基本参考。 tensorflow/nmt项目的代码结构不太清晰,会帮助理解。 训练数据采用了我们自己收集的平行语料库(中日为22万,中韩为39万),训练好的模型分别保存在model中对应的文件夹里(best-bleu:日中为19.9)。 [原Readme.md](#Neural Machine Translation (seq2seq) Tutorial) 环境的配置 Python3.6 tensorflow-gpu:1.12.0(TF2.0更新比较大,运行会报错,需要兼容1.0的语法引用方式修改一下) 直接使用我的模型 (以日语到中文为例,训练好的模型在model/jp2zh_model) git clone 项目: git clone https://github.com/adorableChowhound/nmt.git 进入项目: cd nmt 把需要翻译的句子输入到model/jp2zh_model/my_infer_file.jp: cat > model/jp2zh_model/my_infer_f
2021-08-10 11:54:51 124.6MB 系统开源
1
工艺简介   1.什么是NMT?   金属与塑料以纳米技术结合的工艺称为纳米注塑成型技术(NMT)。先对金属表面进行纳米化处理,再将塑料注射在在金属表面,可将镁、不锈钢、钛等金属与硬质树脂结合,实现一体化成型,其工艺流程如下图所示:a      2.什么是LDS?   LDS是利用数控激光直接把电路图案三维打印在塑料件表面的技术。加工时间短,精度高且电路图案不受实物器件的几何形状限制,其工艺流程如下图所示:      资料来源:濠暻科技,新材料在线整理   二为什么要用NMT+LDS
1
数据集—基于TF NMT利用带有Attention的 ED模型训练、测试(中英文平行语料库)实现将英文翻译为中文的LSTM翻译(中英文平行语料库)训练数据集—train
2021-04-20 09:20:56 451B 中英文语料库 训练数据集
1
Canopen_NMT
2021-03-22 13:03:38 156KB Canopen_NMT
一步步教你如何搭建机器翻译系统,包括: 1. 机器翻译现状 4 1.1 什么是机器翻译? 4 1.2 相关论文 7 1.3 相关会议 8 1.4 相关工具 8 2. NMT系统搭建指导 9 2.1 获取数据 9 2.2 数据预处理 10 2.3 模型训练 12 2.4 模型的解码及bleu计算 13 3. 系统的优化 15 3.1 模型的ensemble 15 3.2 定制化领域微调 15 3.3 迁移学习 15 4. 翻译引擎的部署 16 4.1 翻译系统概述 16 4.2 基于Tensor2tensor的引擎部署 16 4.3 简单系统搭建 17 4.4 多个模型共同部署的方案 18 5. 机器翻译进阶 19 5.1 爬虫技术 19 5.2 数据清洗 19 5.3 数据增强 20 5.4 翻译质量评估 21 6. 常用框架概述 22 6.1 Tensor2tensor 22 6.2 Nematus 29 6.3 Marian 29 6.4 其他框架 30 7. 其他 30 7.1 Bleu原理 30 7.2 BPE原理 30
2020-01-03 11:18:22 2.05MB 机器翻译 人工智能 t2t
1