科学引文知识提取器(SCKE) 关于SCKE SCKE是一个开放源代码工具,可通过分析引用他们的论文内容,帮助生物医学研究人员了解他人如何使用他们的工作。 该工具使用自然语言处理和机器学习来提取引用文档中讨论的突出主题和概念。 通过查看引用文章讨论的主题类型,研究人员可以更好地了解他们的工作如何影响同龄人和科学的各个学科。 此外,SCKE允许生物医学研究人员探索有关引用它们的出版物的其他统计数据,例如引文的发表位置(期刊),关键字的分布(关键字),论文彼此的相似性(聚类),论文的相似性其他著名作品(TextCompare)以及有关引文的一般统计信息(Statistics)。 使用Biopy
1
MultiWOZ 多域绿野仙踪数据集(MultiWOZ),是跨多个领域和主题的全人类书面对话的完整标签集合。 对话的大小为1万个,比以前所有带注释的面向任务的语料库大至少一个数量级。 感谢在上提供了最新的,经过纠正的数据集版本。 可在上获得新的,更正后的数据集版本。 可在以下访问EMNLP出版物中使用的数据集: 可在以下位置访问ACL发布中使用的数据集: 数据结构 如果该域允许,则包含3406个单域对话(包括预订),以及包含至少2个(最多5个域)的7,032个多域对话。 为了增强结果的可重复性,将语料库随机分为训练,测试和开发集。 测试和开发集各包含1k个示例。 即使所有对话都是连贯的,但其中一些对话并未按照任务描述来完成。 因此,验证和测试集仅包含完全成功的对话,因此可以对模型进行公平的比较。 在验证和测试集中没有来自医院和警察领域的对话。 每个对话都包含一个目标,多个用
1
暹罗深度神经网络的语义相似性。 该存储库包含Tensorflow中的暹罗神经网络的实现,该实现基于3种不同的主要深度学习架构构建: 卷积神经网络 递归神经网络 多头注意力网络 创建该存储库的主要原因是将GitHub上主要基于CNN和RNN架构构建的Siamese神经网络的知名实现方案与基于Transformer模型最初由提出的基于多头注意力机制构建的Siamese神经网络进行比较,这论文。 。 支持的数据集 当前版本的管道支持使用3个数据集: :NEW_button: 对抗自然语言推论(ANLI)基准: , 安装 资料准备 为了下载数据,请执行以下命令(此过程可能需要一段时间,具体取决于您的网络吞吐量):
1
此存储库包含代码和我对StyleGAN和CLIP进行实验的一些结果。 我们称它为StyleCLIP。 给定文字描述,我的目标是编辑给定的图像或生成一个图像。 文本指导的图像编辑(使用CLIP和StyleGAN)此存储库包含代码和我对StyleGAN和CLIP进行实验的一些结果。 我们称它为StyleCLIP。 给定文字描述,我的目标是编辑给定的图像或生成一个图像。 下图说明了它的工作方式:在本示例中,我拍摄了Ariana Grande的图像,使用e4e对其进行了反转,然后编辑了图像,以使Ariana使用文本“ A tanned woman”看起来更加黝黑。 使图像接近原点
2021-11-26 20:16:22 47.97MB Python Natural Language Processing
1
RBERT:R中的BERT实现
2021-11-24 22:54:39 1.85MB nlp natural-language-processing tensorflow rstudio
1
“自然语言标注”(natural language annotation)技术,这种技术将检索对象的内容分解成不同颗粒度的信息片段,并用自然语言的句子和短语来标注
2021-11-23 21:00:54 2.13MB NLP 自然语言处理
1
蒙古BERT型号 该存储库包含由 , 和训练的经过预训练的蒙古模型。 特别感谢提供了5个TPU。 该存储库基于以下开源项目: ,和 。 楷模 词汇量为32000的用作文本标记器。 您可以使用蒙版语言模型笔记本 测试经过预训练的模型可以预测蒙面蒙语单词的效果如何。 BERT-Base: 和 BERT-Large: HuggingFace 未装箱的BERT-Base: TensorFlow检查点和PyTorch模型 未装箱的BERT-Large: HuggingFace 盒装BERT-Base 下载TensorFlow检查点或PyTorch模型。 评估结果: global_step = 4000000 loss = 1.3476765 masked_lm_accuracy = 0.7069192 masked_lm_loss = 1.2822781 next_sentence_a
1
FastWER 用于快速字/字符错误率 (WER/CER) 计算的 PyPI 包 快速(cpp 实现) 句子级和语料库级 WER/CER 分数 安装 pip install pybind11 fastwer 例子 import fastwer hypo = [ 'This is an example .' , 'This is another example .' ] ref = [ 'This is the example :)' , 'That is the example .' ] # Corpus-Level WER: 40.0 fastwer . score ( hypo , ref ) # Corpus-Level CER: 25.5814 fastwer . score ( hypo , ref , char_level = True ) # Sentence-Leve
1
Neural Network Methods in Natural Language Processing 英文epub 本资源转载自网络,如有侵权,请联系上传者或csdn删除 本资源转载自网络,如有侵权,请联系上传者或csdn删除
2021-11-17 14:53:56 2.98MB Neural Network Methods Natural
1