贝岭的matlab的代码Keras_Attention_Seq2Seq 以了解事物的本质。 人类可以阅读的基于 Keras 的生成注意机制的序列到序列框架。 一个人类可以基于Keras的阅读研究工具的序列到框架/模型。 测试通过 Python 3.6 TensorFlow 1.12.1 keras 2.2.4 tqdm json 如果您需要评估模型 BLEU: nltk 最快使用之一:使用经过训练的模型进行英法翻译 python run_seq2seq_model.py 记得在 run_seq2seq_model.py 中将操作模式设置为翻译模式。 if __name__=='__main__': is_translation_mode = True 你会看见... Please input your sentences: california is usually quiet during march , and it is usually hot in june . california is usually quiet during march , and it is usual
2021-11-05 19:28:48 3.79MB 系统开源
1
NER-Sequence-labeling--Textcnn-bilstm-crf-pytorch pytorch用Textcnn-bilstm-crf模型实现命名实体识别 数据处理 数据处理文件是'data_preprocess.py' 模型和训练过程 模型和训练过程都在同一个文件中‘cnn-bilistm-crf.py’ 预测 预测文件为‘predict.py’   数据 数据存在data文件夹中
2021-11-05 14:04:29 16KB Python
1
双向LSTM进行命名实体识别NER
2021-11-04 23:00:21 39.47MB 双向LSTM BiLSTM
1
内容包含注意力机制和强化学习两部分,组会汇报所用,便于理解
2021-11-03 20:08:29 1.18MB Attention RL
1
情感分析分类 先决条件 安装依赖项 pip install -r requirements.txt 安装Spacy英语数据 python -m spacy download en 框架 火炬 数据集 Cornell MR(电影评论)数据集 实施 RNN LSTM 双LSTM LSTM +注意 有线电视新闻网
2021-11-02 09:33:23 6.45MB pytorch lstm rnn bi-lstm
1
注意图像字幕注意 该存储库包括“的实现。 要求 Python 3.6 Java 1.8.0 PyTorch 1.0 苹果酒(已经添加为子模块) coco-caption(已经添加为子模块) 张量板 培训AoANet 准备数据 请参阅data/README.md详细信息。 (注释:设置word_count_threshold在scripts/prepro_labels.py至4,以产生大小10369的词汇表。) 您还应该预处理数据集并获取缓存以计算苹果酒得分: $ python scripts/prepro_ngrams.py --input_json data/dataset_coco.json --dict_json data/cocotalk.json --output_pkl data/coco-train --split train 开始训练 $ CUDA_VISIB
1
tranformer,self-attention,multi-attention
2021-11-01 18:14:51 1.39MB tranformer self-attention multi-attention
1
裁判文书中的命名实体识别是自动化审判的关键一步,如何能够有效的分辨出案件的关键命名实体是本文的研究重点.因此本文针对财产纠纷审判案件,提出了一种基于SVM-BiLSTM-CRF的神经网络模型.首先利用SVM筛选出包含关键命名实体的句子,然后将正确包含此类实体的句子转化为字符级向量作为输入,构建适合财产纠纷裁判文书命名实体识别的BiLSTM-CRF深层神经网络模型.通过构建训练数据进行验证和对比,该模型比其他相关模型表现出更高的召回率和准确率.
2021-10-31 16:58:52 1.1MB 命名实体识别 SVM BiLSTM CRF
1
深度学习中attention注意力机制
2021-10-28 20:08:31 2.7MB
1
计算机视觉中的Transformer 在2017年谷歌设计了Transformer,并在NLP社区显示出了效果之后,有大量的工作专注于将其应用到计算机视觉社区。本文首先简要介绍了计算机视觉中的Transformer。然后,介绍了Transformer模型在低/高级视觉任务、模型压缩和主干设计方面的一些代表性工作。 曹越,现任微软亚洲研究院视觉计算组主管研究员,分别于2014年和2019年在清华大学软件学院获得本科和博士学位,曾于2017年获微软学者奖学金、2018年获清华大学特等奖学金。至今在CVPR、ICCV、ICLR、ICML、NeurIPS等国际会议和期刊中发表论文20余篇,其中有三篇入围PaperDigest Most Influential Papers榜单,谷歌引用五千余次。目前主要的研究兴趣是自监督学习、多模态学习以及自注意力建模。
2021-10-26 18:08:47 11.96MB transformer
1