抑郁症被认为是造成全球残疾的最大原因,也是自杀的主要原因。 它会影响书面文本中反映的语言使用情况。 我们研究的主要目标是检查Reddit用户的帖子,以发现任何可能揭示相关在线用户的抑郁态度的因素。 为此,我们采用自然语言处理(NLP)技术和机器学习方法来训练数据并评估我们提出的方法的效率。 我们确定在沮丧帐户中更常见的术语词典。 结果表明,我们提出的方法可以显着提高性能精度。 最好的单一功能是使用支持向量机(SVM)分类器的双字母组,可以以80%的准确度和0.80 F1的分数检测抑郁症。 多层感知器(MLP)分类器最成功地证明了组合特征(LIWC + LDA + bigram)的强度和有效性,从而使抑郁症检测的顶级性能达到91%的准确度和0.93 F1分数。 根据我们的研究,可以通过选择适当的特征及其多个特征组合来实现更好的性能改进。
2021-04-28 17:58:34 3.5MB Natural language processing; machine
1
OntoNotes-5.0-NER-BIO 这是CoNLL-2003格式的版本,带有OntoNotes 5.0版本NER的BIO标记方案。 此格式化的版本基于的说明以及在此存储库中创建的新脚本。 简单地说,名为“(Yuchen Zhang,Zhi Zhong,CoNLL 2013),提出了针对OntoNotes 5.0数据的Train-dev-split,并提供了将其转换为CoNLL 2012格式的脚本。 但是,结果不在BIO标记方案中,不能直接用于许多序列标记体系结构中,例如BLSTM-CRF。 此回购协议通过直接生成BIO格式简化了预处理,您可以在实验中使用它们。 步骤1:获取官方的O
1
MAMS for ABSA 此存储库包含论文“ EMCLP-IJCNLP 2019, 挑战数据集和基于方面的情感分析的有效模型”的数据和代码。 彩信 MAMS是用于基于方面的情感分析(ABSA)的挑战数据集,其中每个句子包含至少两个具有不同情感极性的方面。 MAMS数据集包含两个版本:一个用于方面术语情感分析(ATSA),另一个用于方面类别情感分析(ACSA)。 要求 pytorch==1.1.0 spacy==2.1.8 pytorch-pretrained-bert==0.6.2 adabound==0.0.5 pyyaml==5.1.2 numpy==1.17.2 scikit-learn==0.21.3 scipy==1.3.1 快速开始 将经过预训练的GloVe( )文件glove.840B.300d.txt放在./data文件夹中。 修改config.py以选择任务,模型和
1
基于视觉显着性的人体扫视扫描路径建模
2021-04-19 21:53:14 3.37MB Natural images; Related factors;
1
ln2sql ln2sql是使用自然语言查询数据库的NLP工具。 该工具接受输入的数据库模型和句子,然后将其转换为能够查询输入数据模型的有效SQL语句。 科学论文 以下法语文件(可在docs/目录中找到)对初始工具进行了描述: 如果使用ln2sql,请引用该论文。 本文版本(fr2sql)和此版本(ln2sql)之间的差异 出于版权考虑,ln2sql不是最新的工具。 它只是一个快速而肮脏的Python包装器,但具有一些速度优化。 在本文中, 用于根据其POS标记过滤输入句子的单词。 以此方式,可以执行输入句子的关键字与数据模型的关键字之间的映射。 在ln2sql中,T
1
排名:6 队名:爆写规则一万行 成员: , , 环境环境 Ubuntu 18.04 的Python:3.6.5 火炬:1.1.0 CUDA:9.0 CUDNN:7.1.3 所需的包 我们将软件包用于主干BERT模型。 (请注意,原始在比赛期间已更新为 ,但出于稳定性考虑,我们选择使用旧版本。) 所需的Python软件包: fuzzywuzzy==0.17.0 numpy==1.17.0 torch==1.1.0 pytorch-pretrained-bert==0.6.2 tqdm==4.24.0 records 安装所需的python软件包的命令: pip install
1
BERT和SpanBERT用于共指解析 该存储库包含该论文的代码和模型,。 此外,我们还包括论文分辨率模型,这是OntoNotes(79.6 F1)的最新技术。 请参阅以了解其他任务。 模型架构本身是模型的扩展。 建立 安装python3要求: pip install -r requirements.txt export data_dir= ./setup_all.sh :这将构建自定义内核 预训练共指模型 请下载以下文件,以对数据使用预训练的共参照模型。 如果您想训练自己的共参照模型,则可以跳过此步骤。 模型 下载 F1(
2021-04-06 17:55:56 4.12MB nlp bert natural coreference-resolution
1
BERT扩展 (来自变压器的双向编码器表示)是Google AI语言小组提出的一种通用的自动编码预训练方法,它在11个NLP任务(包括问题回答,自然,语言推理和情感分析)方面获得了最新的技术成果。 BERT旨在通过在所有层的左,右上下文上共同进行条件调节来预训练来自未标记文本的深层双向表示,这使它可以轻松地针对下游任务进行微调,而无需进行大量针对特定任务的体系结构修改。 该项目旨在提供基于当前BERT的扩展,并将BERT的功能带给NER和NLU等其他NLP任务。 图1:在不同任务上对BERT进行微调的图示 环境 的Python 3.6.7 Tensorflow 1.13.1 NumPy 1.13.3 数据集 是一个多任务数据集,包含3个子任务,POS标记,语法块和NER。 对于NER子任务,它包含4种命名实体:不属于前三组的人员,位置,组织和杂项名称。 (航空公司旅行信息系统)
1
在云上进行情感分析的全面评估 Ashwin Nalwade,陈名喜。 科技栈 应用程序和数据:Python,Flask,Gunicorn,CSS,spaCy,PyTorch,Pandas,HuggingFace。 云:Paperspace的Google Cloud Platform(GCP),IBM Cloud,Gradient Cloud。 容器:Docker [Docker Hub],Kubernetes,Google Kubernetes Engine。 跨平台比较 我们在3个不同的云平台上测试了不同的方法,并通过在GPU上运行时使用探查器来分析训练时间[历时平均值],准确性和内存利用率[峰值]。 GPU详细信息[Colab Pro] Fri Nov 27 20:47:34 2020 +----------------------------------------------
1
Natural logarithm wavelength modulation spectroscopy (ln-WMS) is demonstrated in this Letter. Unlike the conventional wavelength modulation spectroscopy (WMS)-2
2021-03-01 17:05:48 1009KB 论文
1