MTBook:《机器翻译:基础与模型》肖桐朱靖波着-机器翻译:基础和模型
1
自然语言处理与中文计算——CCF会议(NLPCC 2014)论文全集收录
2022-02-07 10:15:00 26.3MB 自然语言处理 NLP 中文处理 机器学习
1
情绪急救数据集 心理咨询问答语言料库,仅限研究用途。 为什么发布这个语料库 心理咨询中应用人工智能,是我们认为非常有价值的一个探索。我们愿意和更多人合作,把目前领先的人工智能技术,在心理咨询不同场景定位地。扣门的,就给他开门,愿每个人都有自己的心理咨询师。 - 数据集介绍 心理咨询问答语料库(以下也称为“数据集”,“语料库”)是为应用人工智能技术于心理咨询领域制作的语料。据我们所知,这是心理咨询领域首个开放的QA语料库,包括20,000条心理咨询数据,也是公开的最大的中文心理咨询对话语料。数据集内容丰富,不但存在多轮对话内容,也有分类等信息,制作过程耗费大量时间和收益,标注过程是针对多轮对话的,平均每条标记耗时1分钟。 数据集由斯坦福大学,UCLA和台湾辅仁大学临床心理学等心理学专业人士参与建设,并由Chatopera和众多志愿者合作完成。 数据文件位置 ,该文件为Gzip压缩,utf8
1
餐馆评论分析 使用自然语言处理和单词袋进行特征提取,以分析在餐厅用餐的顾客的情绪,最后使用分类算法将正面和负面情绪分开。 餐馆评论分析使用自然语言处理和词袋进行特征提取,以对在餐馆中拜访的顾客进行情感分析,最后使用分类算法将正面和负面情绪分开。 自然语言处理自然语言处理是计算机科学,信息工程和人工智能的一个子领域,与计算机和人类语言之间的交互有关,尤其是如何对计算机进行编程以处理和分析大量自然语言数据 使用机器学习算法对分类进行分类,以分离不同的情感,以更好地了解商业环境
1
|简体中文 ERNIE是百度开创性提出的基于知识增强的持续学习语义理解框架,该框架将大数据预训练与多源丰富知识相结合,通过持续学习技术,不断吸收海量文本数据中文字句,结构,语义等方面ERNIE在情感分析,文本匹配,自然语言推理,词法分析,阅读理解,智能问答等16个公开数据集上全面显着超越世界领先技术,在国际权威的通用语言理解上评估基准GLUE上,突破首次突破90分,获得全球第一。在今年3月落下帷幕的全球最大语义评价。SemEval2020上,ERNIE摘得5项世界冠军,该技术也被全球顶级科技商业杂志《麻省理工科技评论》官方网站报道,相关创新成果也被国际顶级学术会议AAAI,IJCAI收录。E
1
CS224N-2019和2021 闪亮的新事物:我已经在2021年更新了此解决方案,其中包括: 作业1中的新词嵌入分析 关于预训练和合成器变压器的新作业5 简化的NMT分配4 我的CS224N 2019解决方案 课程连结 课程页面 讲座视频2019 杂项 安装Chrome扩展以便更好地显示公式 由于Kaggle将其GPU更新为P100(与K80相比,性能提高了2倍),因此该将展示我如何使用Kaggle内核训练A5(大约6小时)
1
从arXiv纸张标题生成类别 该项目采用并根据arXiv论文标题构建自动标签分类器。 系统输入:走向广泛学习:医疗保健实验 系统输出: stat.ML , cs.LG 到上述论文。
1
双项主题模型 此程序包实现了由,兰介绍的短文本的。 它包括BTM模型的两种实现:cythonized)1 由小慧严,2)优化和cythonized 通过 。 它还能够计算困惑和语义一致性度量。 要求 赛顿 NumPy 大熊猫 科学 Scikit学习 pyLDAvis(可选) 设置 您可以从PyPi安装软件包: pip install bitermplus 或从此回购中: pip install git+https://github.com/maximtrp/bitermplus.git 例子 import bitermplus as btm import numpy as np from gzip import open as gzip_open # Importing and vectorizing text data with gzip_open ( 'dataset/Sea
1
自然语言处理与灾难鸣叫Kaggle
2021-12-12 20:00:47 32KB JupyterNotebook
1
半监督序列学习 此回购记录了重现论文给出的结果的实验​​。 简而言之,我们在未标记的文本数据上对序列自动编码器或语言模型进行预训练,然后使用标记的文本数据对使用预训练权重初始化的基于RNN的序列分类器进行微调,与随机初始化的权重相比,分类精度更高。 资料准备 IMDB数据集 我们为此实验使用。 下载并解压缩,导航至目录aclImdb/train ,该目录aclImdb/train中包含带aclImdb/train/pos的正( aclImdb/train/pos )和带标签的负性( aclImdb/train/neg )以及未标签的评论( aclImdb/train/unsup )。 然后cd进入每个子目录并运行 for f in *.txt; do (cat "${f}"; echo) >> pos.txt; done for f in *.txt; do (cat "${f}"; ec
1