行业分类-设备装置-具有错误自诊断和自纠错功能的统计机器翻译方法.zip
一键将网站静态资源HTML和JS中的英文字符串翻译为中文 使用命令:trans.sh -u jabari -a 123 -s ./test -d ./dist -u: 用户名 -a: 密码 -s: 源目录 -d: 生成目录
2021-09-08 09:11:08 6.51MB 翻译工具 全球化 国际化工具 机器翻译
1
一键将网站静态资源HTML和JS中的英文字符串翻译为中文 使用命令:trans -u jabari -a 123 -s ./test -d ./dist -u: 用户名 -a: 密码 -s: 源目录 -d: 生成目录
1
一键将网站静态资源HTML和JS中的英文字符串翻译为中文 使用命令:trans.exe -u jabari -a 123 -s ./test -d ./dist -u: 用户名 -a: 密码 -s: 源目录 -d: 生成目录
1
torch-seq2seq-attention, GRU递归和注意的seq2seq机器翻译的Torch 实现 torch-seq2seq-attention这是对神经机器翻译的一个轻微的修改,通过联合学习来调整和翻译。 模型这里模型基于 torch-seq2seq 。 模型中,递归编码器输出末端( 代表整个句子)的单个矢量,解码器从那
2021-09-01 17:09:26 12KB 开源
1
思路 文本处理,这里我是以eng_fra的文本为例,每行是english[tab]french,以tab键分割。获取文本,清洗。 分别建立字典,一个english,一个french。 根据字典写好seq2id的函数(文本序列->数字序列),并调用将文本序列化。 初始化Encoder,Decoder模型;选择合适的优化器;设置lr,epochs等参数; 开始循环迭代: 1.因为文本太大,这里是随机选择某句进行训练。 2.句子通过Encoder,Encoder产生新的隐层和每层的输出;再将开始标志通过传给Decoder结合Encoder的隐层和每层的输出(期间用到attention,下面详细讲解)
2021-09-01 16:36:03 714KB att attention io
1
这个案例主要是利用tfa框架Sequence to Sequence Model Architecture中的Attention以及Encoder-Decoder方法实现神经机器翻译(Neural Machine Translation,NMT),当然翻译的准确性不可能像BERT之类的那么好,但可以作为一个入门实验,通过这个案例,大家应该对Attention的使用有了更清晰、更全面的认识。
2021-08-28 18:14:36 4.39MB attention 机器翻译 自然语言处理 nlp
实战数据 有缺失值,乱码等 数据待清洗处理
2021-08-27 09:02:24 78.65MB 平行语料 中英文 机器翻译
1
Pytorch-seq2seq-光束搜索 带有注意力和贪婪搜索/波束搜索的Seq2Seq模型,用于在PyTorch中进行神经机器翻译。 此实现着重于以下功能: 用于其他项目的模块化结构 最少的代码以提高可读性 充分利用批处理和GPU。 解码方法贪婪搜索 解码方法波束搜索 此实现依赖于来最大程度地减少数据集管理和预处理部分。 Seq2Seq型号说明 seq2seq的主要结构采用 编码器:双向GRU 解码器:具有注意机制的GRU 注意力 解码方式 贪婪的搜索 光束搜索 要求 CUDA Python 3.6 PyTorch 1.4 火炬文本 空间 麻木 智慧(可选) 通过这样做下载令牌生成器: python -m spacy download de python -m spacy download en 去做 添加日志 更改为支持gpu和cpu,目前是基于gpu的代码实现
2021-08-25 16:09:18 5.75MB pytorch seq2seq beam-search nmt
1
Machine Translation(自然语言处理 NLP)
2021-08-20 01:37:51 2.19MB 机器翻译 自然语言处理 NLP