NMT机器翻译Attention.zip

上传者: 22170967 | 上传时间: 2021-08-28 18:14:36 | 文件大小: 4.39MB | 文件类型: ZIP
这个案例主要是利用tfa框架Sequence to Sequence Model Architecture中的Attention以及Encoder-Decoder方法实现神经机器翻译(Neural Machine Translation,NMT),当然翻译的准确性不可能像BERT之类的那么好,但可以作为一个入门实验,通过这个案例,大家应该对Attention的使用有了更清晰、更全面的认识。

文件下载

资源详情

[{"title":"( 7 个子文件 4.39MB ) NMT机器翻译Attention.zip","children":[{"title":"dataset","children":[{"title":"spa-eng","children":[{"title":"_about.txt <span style='color:#111;'> 1.41KB </span>","children":null,"spread":false},{"title":"spa.txt <span style='color:#111;'> 7.67MB </span>","children":null,"spread":false}],"spread":true},{"title":".DS_Store <span style='color:#111;'> 6.00KB </span>","children":null,"spread":false},{"title":"cmn-eng","children":[{"title":"cmn.txt <span style='color:#111;'> 3.59MB </span>","children":null,"spread":false},{"title":"_about.txt <span style='color:#111;'> 1.41KB </span>","children":null,"spread":false}],"spread":true}],"spread":true},{"title":"networks_seq2seq_nmt.ipynb <span style='color:#111;'> 256.59KB </span>","children":null,"spread":false},{"title":"origin_eng-chn_networks_seq2seq_nmt.ipynb <span style='color:#111;'> 655.21KB </span>","children":null,"spread":false}],"spread":true}]

评论信息

  • qq_50492541 :
    用户下载后在一定时间内未进行评价,系统默认好评。
    2021-11-26

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明