人工智能,制动驾驶相关,基于注意力的神经及其翻译的有效途径
2021-06-28 11:02:23 244KB 人工智能 机器神经网络
第 1 章 绪论 1 1.1系统研究的背景 1 1.2相关研究工作 2 1.3主要研究内容 2 1.4本文组织结构 3 第 2 章 系统相关分析 4 2.1可行性分析 4 2.1.1技术可行性 4 2.1.2经济可行性 4 2.1.3法律可行性 4 2.1.4时间可行性 4 2.2系统性能需求分析 5 2.2.1系统的安全性 5 2.2.2系统的运行时间 5 2.2.3系统的易用性 5 2.2.4系统的可靠性 5 2.2.5系统的准确性 5 2.3系统用例图 6 2.4系统流程分析 6 2.5本章小结 8 第 3 章 系统结构设计与实现 9 3.1系统架构设计 9 3.1.1B/S 架构 9 3.1.2前后端分离开发 9 3.1.3MVVM 架构 11 3.1.4Flask 框架的架构设计 12 3.2系统的设计模式与实现 12 3.2.1工厂模式 12 3.2.2代理模式 13 3.2.3UML 类图 13 3.3系统部署 14 3.4本章小结 15 第 4 章 神经机器翻译 16 4.1编码器-解码器架构 16 4.2引入注意力机制的编码器-解码器 17 4.3编码器-解码器模型:Transformer 18 4.3.1模型架构 18 4.3.2多头注意力机制 19 4.3.3掩码机制 19 4.3.4位置编码 20 4.3.5时间复杂度 20 4.4预训练语言模型:MASS 20 4.4.1预训练语言模型简介 20 4.4.2MASS 模型 21 4.5本章小结 21 第 5 章 神经机器翻译的实验与结果 22 5.1数据预处理 22 5.2评价指标 23 5.3模型训练 23 5.3.1模型结构 23 5.3.2实验环境 24 5.3.3混合精度训练 24 5.3.4参数共享 24 5.3.5正则化 24 5.3.6训练批次内排序 25 5.3.7优化器 25 5.4生成策略 25 5.5实验结果 26 第 6 章 结语 28 参考文献 29 致谢 31
2021-05-22 13:04:46 1.12MB 神经机器 翻译技术 网站设计 Python
迷你seq2seq 在PyTorch中注意神经机器翻译的最小Seq2Seq模型。 此实现重点在于以下功能: 用于其他项目的模块化结构 最少的代码可读性 充分利用批次和GPU。 此实现依赖于来最大程度地减少数据集管理和预处理部分。 型号说明 编码器:双向GRU 解码器:具有注意机制的GRU 注意: 要求 GPU和CUDA Python3 火炬 火炬文本 空间 麻木 智慧(可选) 通过这样做下载令牌生成器: python -m spacy download de python -m spacy download en 参考文献 基于以下实现
1
EasyNMT-易于使用的最新神经机器翻译 该软件包提供了易于使用的最新机器翻译,可用于100多种语言。 该软件包的重点是: 易于安装和使用:3行代码使用最新的机器翻译 自动下载经过预训练的机器翻译模型 超过150种语言的翻译 自动检测170多种语言 句子和文件翻译 多GPU和多进程转换 目前,我们提供以下模型: 来自-NLP的 ,支持1200多种翻译方向,支持150多种语言。 来自 ,支持50多种语言的任意方向之间的翻译。 来自 ,支持100多种语言在任何方向之间的翻译。 例子: 安装 您可以通过以下方式安装软件包: pip install -U easynmt 这些模型基于PyTorch 。 如果您有可用的GPU,请参阅如何安装 。 如果您使用Windows并在安装过程中,请参阅如何解决。 用法 用法很简单: from easynmt import EasyNMT mod
2021-03-06 11:04:28 85KB Python
1