MultiWOZ 多域绿野仙踪数据集(MultiWOZ),是跨多个领域和主题的全人类书面对话的完整标签集合。 对话的大小为1万个,比以前所有带注释的面向任务的语料库大至少一个数量级。 感谢在上提供了最新的,经过纠正的数据集版本。 可在上获得新的,更正后的数据集版本。 可在以下访问EMNLP出版物中使用的数据集: 可在以下位置访问ACL发布中使用的数据集: 数据结构 如果该域允许,则包含3406个单域对话(包括预订),以及包含至少2个(最多5个域)的7,032个多域对话。 为了增强结果的可重复性,将语料库随机分为训练,测试和开发集。 测试和开发集各包含1k个示例。 即使所有对话都是连贯的,但其中一些对话并未按照任务描述来完成。 因此,验证和测试集仅包含完全成功的对话,因此可以对模型进行公平的比较。 在验证和测试集中没有来自医院和警察领域的对话。 每个对话都包含一个目标,多个用
1
暹罗深度神经网络的语义相似性。 该存储库包含Tensorflow中的暹罗神经网络的实现,该实现基于3种不同的主要深度学习架构构建: 卷积神经网络 递归神经网络 多头注意力网络 创建该存储库的主要原因是将GitHub上主要基于CNN和RNN架构构建的Siamese神经网络的知名实现方案与基于Transformer模型最初由提出的基于多头注意力机制构建的Siamese神经网络进行比较,这论文。 。 支持的数据集 当前版本的管道支持使用3个数据集: :NEW_button: 对抗自然语言推论(ANLI)基准: , 安装 资料准备 为了下载数据,请执行以下命令(此过程可能需要一段时间,具体取决于您的网络吞吐量):
1
此存储库包含代码和我对StyleGAN和CLIP进行实验的一些结果。 我们称它为StyleCLIP。 给定文字描述,我的目标是编辑给定的图像或生成一个图像。 文本指导的图像编辑(使用CLIP和StyleGAN)此存储库包含代码和我对StyleGAN和CLIP进行实验的一些结果。 我们称它为StyleCLIP。 给定文字描述,我的目标是编辑给定的图像或生成一个图像。 下图说明了它的工作方式:在本示例中,我拍摄了Ariana Grande的图像,使用e4e对其进行了反转,然后编辑了图像,以使Ariana使用文本“ A tanned woman”看起来更加黝黑。 使图像接近原点
2021-11-26 20:16:22 47.97MB Python Natural Language Processing
1
RBERT:R中的BERT实现
2021-11-24 22:54:39 1.85MB nlp natural-language-processing tensorflow rstudio
1
“自然语言标注”(natural language annotation)技术,这种技术将检索对象的内容分解成不同颗粒度的信息片段,并用自然语言的句子和短语来标注
2021-11-23 21:00:54 2.13MB NLP 自然语言处理
1
蒙古BERT型号 该存储库包含由 , 和训练的经过预训练的蒙古模型。 特别感谢提供了5个TPU。 该存储库基于以下开源项目: ,和 。 楷模 词汇量为32000的用作文本标记器。 您可以使用蒙版语言模型笔记本 测试经过预训练的模型可以预测蒙面蒙语单词的效果如何。 BERT-Base: 和 BERT-Large: HuggingFace 未装箱的BERT-Base: TensorFlow检查点和PyTorch模型 未装箱的BERT-Large: HuggingFace 盒装BERT-Base 下载TensorFlow检查点或PyTorch模型。 评估结果: global_step = 4000000 loss = 1.3476765 masked_lm_accuracy = 0.7069192 masked_lm_loss = 1.2822781 next_sentence_a
1
FastWER 用于快速字/字符错误率 (WER/CER) 计算的 PyPI 包 快速(cpp 实现) 句子级和语料库级 WER/CER 分数 安装 pip install pybind11 fastwer 例子 import fastwer hypo = [ 'This is an example .' , 'This is another example .' ] ref = [ 'This is the example :)' , 'That is the example .' ] # Corpus-Level WER: 40.0 fastwer . score ( hypo , ref ) # Corpus-Level CER: 25.5814 fastwer . score ( hypo , ref , char_level = True ) # Sentence-Leve
1
Neural Network Methods in Natural Language Processing 英文epub 本资源转载自网络,如有侵权,请联系上传者或csdn删除 本资源转载自网络,如有侵权,请联系上传者或csdn删除
2021-11-17 14:53:56 2.98MB Neural Network Methods Natural
1
关于在英语语料库上进行词嵌入训练的研究很多。 该工具包通过在德语语料库上应用深度学习,以训练和评估德语模型。 有关项目,评估结果和的概述可在或直接在此存储库中找到。 该项目是根据发布的。 开始吧 确保已安装Python 3以及以下库: pip install gensim nltk matplotlib numpy scipy scikit-learn 现在,您可以下载并在您的Shell中执行它,以自动下载此工具包和相应的语料库文件并进行模型训练和评估。 请注意,这可能需要大量时间! 您也可以克隆此存储库,并使用我已经进行评估和可视化。 如果您只想查看不同Python脚本的工作方式,
1
seqGAN PyTorch实现的“ SeqGAN:具有策略梯度的序列生成对抗网络”。 (于兰涛等)。 该代码经过高度简化,注释和(希望)易于理解。 实施的策略梯度也比原始工作( )简单得多,并且不涉及推广-整个句子使用单一奖励(受的示例启发) )。 使用的体系结构与原始工作中的体系结构不同。 具体而言,将循环双向GRU网络用作鉴别器。 该代码按论文中所述对合成数据进行实验。 我们鼓励您对代码作为问题的工作方式提出任何疑问。 要运行代码: python main.py main.py应该是您进入代码的入口。 技巧与观察 在这种情况下,以下黑客(从借来)似乎有效: 培训鉴别器
1