哈工大最新《自然语言处理数据增强方法》综述论文,155页pdf阐述复述、噪声和抽样三大数据增强方法 数据增强(DA)是一种有效的策略,可以缓解深度学习技术可能失败的数据稀缺情况。它在计算机视觉中得到了广泛的应用,然后被引入到自然语言处理中,并在许多任务中取得了改进。DA方法的重点之一是提高训练数据的多样性,从而帮助模型更好地泛化到未见测试数据。在本研究中,我们根据扩充数据的多样性,将数据增强方法分为三大类,即复述、噪声和抽样。本文从以上几个方面对数据挖掘方法进行了详细的分析。此外,我们还介绍了它们在自然语言处理任务中的应用以及面临的挑战。 引言 数据增强(Data Augmentation,简称DA),是指根据现有数据,合成新数据的一类方法。毕竟数据才是真正的效果天花板,有了更多数据后可以提升效果、增强模型泛化能力、提高鲁棒性等。然而由于NLP任务天生的难度,类似CV的裁剪方法可能会改变语义,既要保证数据质量又要保证多样性,使得大家在做数据增强时十分谨慎。 作者根据生成样本的多样性程度,将DA方法分为了以下三种: Paraphrasing:对句子中的词、短语、句子结构做一些更改,保留原始的语义 Noising:在保证label不变的同时,增加一些离散或连续的噪声,对语义的影响不大 Sampling:旨在根据目前的数据分布选取新的样本,会生成更多样的数据
2021-10-18 22:10:51 2.24MB 自然语言处理
1
图像字幕生成器:LSTM模型从预先训练的VGG-16模型中提取特征后,会为输入图像生成字幕。 (计算机视觉,自然语言处理,深度学习,Python)
1
XLNet-Pytorch 使用Pytorch包装器可轻松实现XLNet! 您可以看到XLNet Architecture如何以小批量(= 1)进行预训练的示例。 用法 $ git clone https://github.com/graykode/xlnet-Pytorch && cd xlnet-Pytorch # To use Sentence Piece Tokenizer(pretrained-BERT Tokenizer) $ pip install pytorch_pretrained_bert $ python main.py --data ./data.txt --tokenizer bert-base-uncased \ --seq_len 512 --reuse_len 256 --perm_size 256 \ --bi_data True --mask_alpha 6 --mask_beta 1 \ --num_predict 85 --mem_len 384 --num_epoch 100 另外,您可以轻松地在运行代码。 纸中预训练的
2021-10-12 09:54:59 545KB nlp natural-language-processing pytorch bert
1
Hubot Natural 自然语言聊天宝 Hubot是网络上最著名的机器人创建框架之一,这是因为github使创建变得容易。 如果您可以在RegExp参数中定义命令,则基本上可以使用Hubot进行任何操作。 这是对ChatOps文化的巨大贡献。 受此启发,我们希望为社区提供同样的简便性,使其能够开发能够实际处理自然语言并执行任务的聊天机器人,就像构建面向RegExp的机器人一样容易。 因此,我们找到了一个非常迷人的项目,可以从发起对您最喜欢的聊天客户端的爱的镜头=) 在Heartbot的基础上,我们引入了团队的一些NLP功能,这是在使用的令人印象深刻的Natural Language
2021-10-08 11:08:12 93KB nodejs coffeescript nlp hubot
1
Book Description Natural Language Processing (NLP) has become one of the prime technologies for processing very large amounts of unstructured data from disparate information sources. This book includes a wide set of recipes and quick methods that solve challenges in text syntax, semantics, and speech tasks. At the beginning of the book, you'll learn important NLP techniques, such as identifying parts of speech, tagging words, and analyzing word semantics. You will learn how to perform lexical analysis and use machine learning techniques to speed up NLP operations. With independent recipes, you will explore techniques for customizing your existing NLP engines/models using Java libraries such as OpenNLP and the Stanford NLP library. You will also learn how to use NLP processing features from cloud-based sources, including Google and Amazon's AWS. You will master core tasks, such as stemming, lemmatization, part-of-speech tagging, and named entity recognition. You will also learn about sentiment analysis, semantic text similarity, language identification, machine translation, and text summarization. By the end of this book, you will be ready to become a professional NLP expert using a problem-solution approach to analyze any sort of text, sentences, or semantic words. What you will learn Explore how to use tokenizers in NLP processing Implement NLP techniques in machine learning and deep learning applications Identify sentences within the text and learn how to train specialized NER models Learn how to classify documents and perform sentiment analysis Find semantic similarities between text elements and extract text from a variety of sources Preprocess text from a variety of data sources Learn how to identify and translate languages
2021-09-28 10:35:13 3.21MB Natural.Language
1
Over 60 effective recipes to develop your Natural Language Processing (NLP) skills quickly and effectively About This Book Build effective natural language processing applications Transit from ad-hoc methods to advanced machine learning techniques Use advanced techniques such as logistic regression, conditional random fields, and latent Dirichlet allocation Who This Book Is For This book is for experienced Java developers with NLP needs, whether academics, industrialists, or hobbyists. A basic knowledge of NLP terminology will be beneficial. In Detail NLP is at the core of web search, intelligent personal assistants, marketing, and much more, and LingPipe is a toolkit for processing text using computational linguistics. This book starts with the foundational but powerful techniques of language identification, sentiment classifiers, and evaluation frameworks. It goes on to detail how to build a robust framework to solve common NLP problems, before ending with advanced techniques for complex heterogeneous NLP systems. This is a recipe and tutorial book for experienced Java developers with NLP needs. A basic knowledge of NLP terminology will be beneficial. This book will guide you through the process of how to build NLP apps with minimal fuss and maximal impact. Table of Contents Chapter 1. Simple Classifiers Chapter 2. Finding and Working with Words Chapter 3. Advanced Classifiers Chapter 4. Tagging Words and Tokens Chapter 5. Finding Spans in Text – Chunking Chapter 6. String Comparison and Clustering Chapter 7. Finding Coreference Between Concepts/People
2021-09-28 10:16:26 2.76MB NLP
1
注意就是您所需要的:Pytorch实现 这是“”中的变压器模型的PyTorch实现(Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N.Gomez,Lukasz Kaiser,Illia Polosukhin,arxiv,2017年)。 一种新颖的序列到序列框架利用自我注意机制,而不是卷积运算或递归结构,在WMT 2014英德翻译任务上实现了最先进的表现。 (2017/06/12) 官方Tensorflow实现可在以下位置找到: 。 要了解有关自我注意机制的更多信息,您可以阅读“”。 该项目现在支持使用训练有素的模型进行培训和翻译。 请注意,该项目仍在进行中。 BPE相关部件尚未经过全面测试。 如果有任何建议或错误,请随时提出问题以通知我。 :) 需求 python 3.4+ pytorch 1.3.1 火炬文字0.4.0 Spacy 2.2.2+ tqdm 莳萝 麻木 用法 WMT'16多式联运翻译:de-en WMT'16多模式翻译任务的培训示例( )。
1
使用BERT的细粒度情感分类 此存储库包含用于获取的结果的代码。 用法 可以使用run.py运行各种配置的实验。 首先,安装python软件包(最好在一个干净的virtualenv中): pip install -r requirements.txt Usage: run.py [OPTIONS] Train BERT sentiment classifier. Options: -c, --bert-config TEXT Pretrained BERT configuration -b, --binary Use binary labels, ignore neutrals -r, --root Use only root nodes of SST -s, --save
1
text2sql-data 该存储库包含用于构建和评估将句子映射到SQL的系统的数据和代码,这些数据和代码是作为以下部分开发的: ,Catherine Finegan-Dollak,Jonathan K.Kummerfeld,Li Zhang,Karthik Ramanathan,Sesh Sadasivam,Rui Zhang和Dragomir Radev,ACL 2018 对于一系列领域,我们提供: 带注释变量的句子 SQL查询 数据库模式 数据库 这些是先前数据集和我们开发的新数据集的改进形式。 我们有单独的文件描述,和。 版 描述 4 数据修复 3 Spider和WikiSQL的数据修复和数据添加 2 修正了错误定义的变量的数据 1个 ACL 2018论文中使用的数据 引用这项工作 如果您在工作中使用此数据,请引用我们的ACL文件和适当的原始来源,并列出数据的版本号。 例如,在您的论文中,您可以编写(使用下面的BibTeX): In this work, we use version 4 of the modified SQL datasets from \c
2021-09-22 14:40:59 31.02MB nlp natural-language-processing sql database
1
Swarm Intelligence- From Natural to Artificial Systems
2021-09-16 09:36:52 19.08MB Swarm Intelligence Natural
1