NIPS-2017-attention-is-all-you-need-Paper.pdf
2021-08-09 21:05:45 556KB nlp
1
压缩包包含训练好的模型,提供test.py脚本可直接使用,并提供可视化的输出。采用pytorch实现了简单法语-英语的翻译。模型采用attention-seq2seq,编码器和解码器采用gru实现。支持windows和linux操作系统。
2021-08-04 11:05:12 29.73MB GRU seq2seq pytorch
1
ABSA-PyTorch 基于方面的情感分析,PyTorch实现。 基于方面的情感分析,使用PyTorch实现。 需求 火炬> = 0.4.0 numpy的> = 1.13.3 斯克莱恩 python 3.6 / 3.7 变形金刚 要安装需求,请运行pip install -r requirements.txt 。 对于非基于BERT的模型,需要,请参阅了解更多详细信息。 用法 训练 python train.py --model_name bert_spc --dataset restaurant 所有实现的模型都列在。 有关更多训练参数,请参见 。 请参阅以获取k倍交叉验证支持。 推理 有关基于非BERT的模型和基于BERT的模型,请参考 。 提示 对于非基于BERT的模型,训练过程不是很稳定。 基于BERT的模型对小数据集上的超参数(尤其是学习率)更敏感,请参阅。 为了释放BERT的真正功能,必须对特定任务进行微调。 评论/调查 邱锡鹏等。 “自然语言处理的预训练模型:调查。” arXiv预印本arXiv:2003.08271(2020)。 张磊,王帅和刘
1
| 简体中文 pycorrector 中文文本纠错工具。音似、形似错字(或变体字)纠正,可用于中文拼音、笔画输入法的错误纠正。python3.6开发。 pycorrector依据语言模型检测错别字位置,通过拼音音似特征、笔画五笔编辑距离特征及语言模型困惑度特征纠正错别字。 Guide Question 中文文本纠错任务,常见错误类型包括: 谐音字词,如 配副眼睛-配副眼镜 混淆音字词,如 流浪织女-牛郎织女 字词顺序颠倒,如 伍迪艾伦-艾伦伍迪 字词补全,如 爱有天意-假如爱有天意 形似字错误,如 高梁-高粱 中文拼音全拼,如 xingfu-幸福 中文拼音缩写,如 sz-深圳 语法错误,如 想象难以-难以想象 当然,针对不同业务场景,这些问题并不一定全部存在,比如输入法中需要处理前四种,搜索引擎需要处理所有类型,语音识别后文本纠错只需要处理前两种, 其中'形似字错误'主要针对五笔或者笔画手
2021-07-15 12:34:01 13.6MB bert spelling-errors electra error-detection
1
该PPT为阅读Neural Relation Extraction with Selective Attention over Instances论文后所做的笔记,总结了论文中的主要技术,并大致梳理了论文思路
2021-07-14 17:21:56 800KB Attention Relation Extraction
1
Attention注意机制现在大热,很多深度学习的框架都带上了注意力机制,而且也取得了很好的性能指标。乘着大热也来水一水文章,发表发表自己的看法。事先说明老哥我在NLP上萌新一枚,粗糙想法不登大雅,呆萌的逻辑思维适合同为萌新滴你。废话不多说,在本文我就浅谈下对注意机制的理解。
2021-07-14 17:21:15 719KB Attention
1
Keras注意机制 Keras的多对一注意力机制。 通过pip安装 pip install attention 导入源代码 from attention import Attention # [...] m = Sequential ([ LSTM ( 128 , input_shape = ( seq_length , 1 ), return_sequences = True ), Attention (), # <--------- here. Dense ( 1 , activation = 'linear' ) ]) 例子 在运行示例之前,请先
1
谷歌提出的Transformer结构
2021-06-30 16:54:19 2.13MB 注意力机制
1
视觉问题回答的关系感知图注意力网络 该存储库是的。 该存储库基于@ hengyuan-hu的和@ Jin-Hwa Kim的,并受其启发。 我们衷心感谢您分享代码。 先决条件 您可能需要一台具有4个GPU(每个GPU具有16GB内存)的计算机,以及用于Python 3的PyTorch v1.0.1。 使用CUDA10.0和Python 3.7安装 。 安装 。 安装 。 如果您使用的是miniconda,则可以使用tools/environment.yml安装所有必备组件。 数据 我们的实现使用了的预训练功能,每个图像具有10-100个自适应功能。 除此之外,还有GloVe载体和Visual Genome问题答案对。 为了方便起见,以下脚本可帮助您下载预处理的数据。 source tools/download.sh 除了数据之外,此脚本还下载了一些预训练的模型。 最后,应按如下
2021-06-30 10:53:29 1.3MB pytorch vqa attention Python
1
Keras注意机制 在Keras中为以下层实现了简单的关注机制: 密集(注意2D块) LSTM,GRU(注意3D块) 示例:注意块 致密层 inputs = Input(shape=(input_dims,)) attention_probs = Dense(input_dims, activation='softmax', name='attention_probs')(inputs) attention_mul = merge([inputs, attention_probs], output_shape=input_dims, name='attention_mul', mode='mul') 让我们考虑这个“ Hello World”示例: 32个值的向量v作为模型的输入(简单前馈神经网络)。 v [1] =目标。 目标是二进制(0或1)。 向量v的所有其他值(
2021-06-29 21:46:43 1.14MB 附件源码 文章源码
1