预训练语言模型已经成为大多数自然语言处理任务的事实范式。这也有利于生物医学领域:来自信息学、医学和计算机科学界的研究人员提出了各种在生物医学数据集上训练的预训练模型,如生物医学文本、电子健康记录、蛋白质和DNA序列,用于各种生物医学任务。
2022-06-01 23:52:26 1.99MB 预训练语言模型 生物医学
1
REDN 这是预训练语言模型的关系提取下游网络的原型代码,支持我们 此代码的一部分根据进行了修订。 数据集 您可以从和获取数据集 入门指南 在example / configs.py中设置自己的路径,包括预训练的模型路径,数据的根路径和输出名称。使用args数据集和mode运行example / redn_trainer.py。数据集可以是nyt10,semeval或webnlg。模式可以是t进行训练,e进行评估。例如,要训练SemEval,请尝试 python redn_trainer semeval t 另一个分行 我们基于建立了一个。在实际项目中使用时,它将更加友好和强大,尽管开发人员应该花一些时间来编写数据集读取器。 日志 如果您无法运行这些代码,则还可以检查./logs中的所有日志。
2022-03-22 15:23:23 47KB Python
1
使用预训练语言模型BERT做中文NER
2022-03-08 22:41:19 3.72MB Python开发-自然语言处理
1
迁移学习从根本上改变了自然语言处理(NLP)的处理范式。许多最先进的模型首先在大型文本语料库上进行预先训练,然后在下游任务上进行微调。
2022-02-12 14:24:26 4.63MB 弱监督 预训练语言模型
1
预训练语言模型看句子嵌入 这是以下的TensorFlow实现: On the Sentence Embeddings from Pre-trained Language Models Bohan Li, Hao Zhou, Junxian He, Mingxuan Wang, Yiming Yang, Lei Li EMNLP 2020 模型 斯皮尔曼的罗 BERT-大型-NLI 77.80 BERT-大-NLI-last2avg 78.45 BERT大NLI流(仅目标,仅训练) 80.54 BERT大型NLI流程(目标,训练+开发+测试) 81.18 如有任何疑问,请联系 。 要求 Python> = 3.6 TensorFlow> = 1.14 准备 预训练的BERT模型 export BERT_PREMODELS= " ../bert_premodels " mk
2022-01-18 15:20:04 275KB Python
1
伊莱克特拉-火炬 详细介绍了一种用于快速训练语言模型的简单工作包装。 与普通的屏蔽语言建模相比,它可以将训练速度提高4倍,并且如果训练时间更长,最终可以达到更好的性能。 特别感谢抽出时间为GLUE复制了结果。 安装 $ pip install electra-pytorch 用法 以下示例使用了reformer-pytorch ,可以通过pip安装。 import torch from torch import nn from reformer_pytorch import ReformerLM from electra_pytorch import Electra # (1) instantiate the generator and discriminator, making sure that the generator is roughly a quarter to a half
1
千次曝光出价产生 为了促进中文自然语言处理研究的发展,本项目提供了CPM-LM (2.6B)模型的文本生成代码,可用于文本生成的本地测试,并同时为基础进一步研究零次学习/少次学习等场景。[] [] [] 安装 首先安装pytorch等基础依赖,再安装以支持fp16: pip install -r requirements.txt git clone https://github.com/NVIDIA/apex cd apex pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./ 考虑到apex的安装容易发生问题,我们内置了对应的Docker容器,可以进行快速环境搭建。安装方式如下: docker pull dmye/cpm:v0 参考运行指令如下: sudo
2021-08-23 20:41:46 926KB Python
1
机器阅读理解(MRC)旨在教机器阅读和理解人类语言,这是自然语言处理(NLP)的长期目标。随着深度神经网络的爆发和上下文语言模型(contextualized language models-CLM)的发展,MRC的研究经历了两个重大突破。作为一种现象,MRC和CLM对NLP社区有很大的影响。
1