在这个全球化的时代,很可能会遇到与我们使用不同语言进行交流的人或社区。 为了承认由此引起的问题,我们正在开发机器翻译系统。 Google LLC 等多家知名组织的开发人员一直致力于使用机器学习算法(如人工神经网络 (ANN))引入算法来支持机器翻译,以促进机器翻译。 在这方面已经开发了几种神经机器翻译,但另一方面,循环神经网络(RNN)在该领域并没有太大发展。 在我们的工作中,我们试图将 RNN 引入机器翻译领域,以承认 RNN 优于 ANN 的优势。 结果显示了 RNN 如何能够以适当的准确度执行机器翻译。
2021-12-30 15:54:31 428KB Neural Machine Translation
1
简单的NMT 简单易读的神经机器翻译系统 1个背景 通过计算机自动翻译自然语言的过程称为机器翻译(MT) 。 神经机器翻译(NMT)直接使用Encoder-Decoder框架进行分布式表示语言的端到端映射,具有统一的模型结构和较高的翻译质量,已成为当今的主流。 机器翻译的发展主要归功于开源系统的推广和评估竞赛。 有许多出色的神经机器翻译系统( , , 等),但是这些开源系统具有实现复杂,代码过多,初学者难以阅读的缺点。 2要做 我致力于构建一个易于阅读,使用且对初学者友好的神经机器翻译系统。
2021-10-28 16:22:56 15KB Python
1
PyTorch实现基于Transformer的神经机器翻译
2021-10-11 12:03:41 468KB Python PyTorch Transformer 神经机器翻译
PyTorch实现基于Transformer的神经机器翻译
2021-10-10 18:38:13 468KB Python开发-机器学习
1
OpenNMT: 开源神经机器翻译系统OpenNMT的Pytorch一个移植
2021-09-25 22:26:27 33.9MB Python开发-机器学习
1
神经机器翻译模型,用于将阿塞拜疆语翻译成英语。 在这个项目中,我发现了如何开发一种神经机器翻译系统来将阿塞拜疆语翻译成英语。 我使用阿塞拜疆语到英语术语的数据集作为语言学习卡片的基础。 该数据集可从ManyThings.org网站获得,其示例摘自Tatoeba项目。 清除文本数据后,就可以进行建模和定义了。 我已经在这个问题上使用了编解码器LSTM模型。 在这种架构中,输入序列由称为编码器的前端模型编码,然后由称为解码器的后端模型逐字解码。 使用有效的Adam方法对模型进行训练,以实现随机梯度下降,并最大程度地减少了分类损失函数,因为我们将预测问题构造为多类分类。 还创建了模型图,为模型配置提供了另一个视角。 接下来,对模型进行训练。 在现代CPU硬件上,每个时期大约需要30秒。 无需GPU。 然后,我们可以对数据集中的每个源短语重复此操作,并将预测结果与英语中的预期目标短语进行比
2021-09-25 21:42:45 1.55MB tensorflow neural-machine-translation Python
1
PyOpenNMT:开源神经机器翻译 这是端口, 是一种开源(MIT)神经机器翻译系统。 完整文档可。 该代码仍在大量开发中(0.1版之前的版本)。 如果您需要稳定的版本,我们建议分叉。 特征 实现了以下OpenNMT功能: 注意和辍学的多层双向RNN 数据预处理 从检查点保存和加载 批处理和波束搜索进行推理(翻译) 多GPU Beta功能: 上下文门 多种源和目标RNN(lstm / gru)类型和注意力(dotprod / mlp)类型 图像到文本处理 源词功能 “注意是您所需要的” TensorBoard /蜡笔记录 复制,覆盖和结构化关注 快速开始 步骤1:预处理数据 python preprocess.py -train_src data/src-train.txt -train_tgt data/tgt-train.txt -valid_src data/src-
2021-09-25 21:09:48 7.28MB Python
1
Pytorch-seq2seq-光束搜索 带有注意力和贪婪搜索/波束搜索的Seq2Seq模型,用于在PyTorch中进行神经机器翻译。 此实现着重于以下功能: 用于其他项目的模块化结构 最少的代码以提高可读性 充分利用批处理和GPU。 解码方法贪婪搜索 解码方法波束搜索 此实现依赖于来最大程度地减少数据集管理和预处理部分。 Seq2Seq型号说明 seq2seq的主要结构采用 编码器:双向GRU 解码器:具有注意机制的GRU 注意力 解码方式 贪婪的搜索 光束搜索 要求 CUDA Python 3.6 PyTorch 1.4 火炬文本 空间 麻木 智慧(可选) 通过这样做下载令牌生成器: python -m spacy download de python -m spacy download en 去做 添加日志 更改为支持gpu和cpu,目前是基于gpu的代码实现
2021-08-25 16:09:18 5.75MB pytorch seq2seq beam-search nmt
1
svm回归预测matlab代码用于链接预测的Weisfeiler-Lehman神经机器 用法 Wesfeiler-Lehman神经机器(WLNM)是一种基于子图的链接预测方法,该方法利用深度学习自动学习图结构特征,以便根据链接的封闭子图进行链接预测。 有关更多信息,请参见以下文章: Zhang M和Y. Chen,《 Weisfeiler-Lehman神经机器用于链路预测》,Proc.Natl.Acad.Sci.USA。 ACM SIGKDD知识发现和数据挖掘会议(KDD-17)。 在MATLAB中运行Main.m进行链接预测实验。 怎么跑 您需要安装liblinear,以便将.mat数据保存为libsvm格式,以便Torch可以读取它们。 cd software/ wget -O liblinear.tar.gz http://www.csie.ntu.edu.tw/~cjlin/cgi-bin/liblinear.cgi?+http://www.csie.ntu.edu.tw/~cjlin/liblinear+tar.gz tar xvzf liblinear.tar.gz cd
2021-08-02 09:40:40 12.96MB 系统开源
1
openpose中包含了对人脸关键点的定位,人手的关键点的定位以及人身体的各个关节的定位。关键点亲和度向量场: 解决关键点的聚类;自下而上的parse解析: 效率更高, 与人的数量无关;两个分支: 关键点置信度预测网络 & 关键点亲和度向量场预测网络
2021-07-24 23:40:56 46.67MB 姿态识别 视觉神经 机器学习 深度学习
1