jLDADMM:用于LDA和DMM主题模型的Java包 jLDADMM已发布,它为普通或短文本上的主题建模提供了替代方法。 概率主题模型,例如潜在狄利克雷分配(LDA)[1]和相关模型[2],被广泛用于发现文档集中的潜在主题。 但是,由于数据稀疏性以及此类文本中的上下文有限,将主题模型应用于短文本(例如Tweets)更具挑战性。 一种方法是在训练LDA之前将短文本组合成长的伪文档。 另一种方法是假设每个文档只有一个主题[3]。 jLDADMM提供了LDA主题模型[1]和每个文档一个主题的Dirichlet多项式混合(DMM)模型(即,字母组合的混合)[4]的实现。 LDA和DMM的实现分别使
2023-04-18 11:35:19 133KB nlp topic-modeling lda short-text
1
topModel:来自Google的Github公共数据集的一些简短主题建模
1
更新:现在可以嵌入预训练的通用句子编码器和BERT句子转换器。阅读。 Top2Vec Top2Vec是用于主题建模和语义搜索的算法。它会自动检测文本中存在的主题,并生成联合嵌入的主题,文档和单词向量。训练Top2Vec模型后,您可以: 获取检测到的主题数。 获取主题。 获取主题大小。 获取层次结构主题。 通过关键字搜索主题。 按主题搜索文档。 通过关键字搜索文档。 查找类似的单词。 查找类似的文档。 使用公开模型 有关其工作原理的更多详细信息,请参见。 好处 自动查找主题数。 无需停用词列表。 无需词干/词形限制。 适用于短文本。 创建联合嵌入的主题,文档和单词向量。 内置搜索功能。 它是如何工作的? 该算法所做的假设是,许多语义上相似的文档都表明了一个潜在的主题。第一步是创建文档和单词向量的联合嵌入。将文档和单词嵌入向量空间后,算法的目标是找到文档的密集簇,然后确定哪些单词将这些文档
2023-03-09 13:56:41 6.48MB word-embeddings topic-modeling semantic-search bert
1
tomotopy:主题建模工具Tomoto的Python软件包
1
情境化主题模型 上下文化主题模型(CTM)是一系列主题模型,这些主题模型使用语言的预训练表示形式(例如BERT)来支持主题建模。有关详细信息,请参见论文: Bianchi,F.,Terragni,S.,Hovy,D.,Nozza,D.,&Fersini,E.(2021)。具有零镜头学习功能的跨语言情境主题模型。 EACL。 Bianchi,F.,Terragni,S.和Hovy,D.(2020年)。预培训是一个热门话题:上下文化文档嵌入可提高主题一致性 具有上下文嵌入的主题建模 我们的新主题建模系列支持许多不同的语言(即,HuggingFace模型支持的一种),并有两个版本: CombinedTM将上下文嵌入与旧的单词组合在一起,以使主题更连贯; ZeroShotTM是完成任务的理想主题模型,在该模型中,您可能在测试数据中缺少单词,并且,如果经过多语言嵌入训练,则可以继承多语言主题模型
2022-08-13 12:32:38 31.14MB nlp embeddings transformer topic-modeling
1
华侨城 OCTIS(优化和比较主题模型很简单)旨在训练,分析和比较主题模型,其最佳超参数通过贝叶斯优化方法进行估算。 安装 您可以使用以下命令安装OCTIS: pip install -e . 您可以在requirements.txt文件中找到需求。 特征 我们提供了一组最新的预处理文本数据集(或者您可以预处理自己的数据集) 我们提供了一组著名的主题模型(经典模型和神经模型),或者您可以集成自己的模型 您可以使用几种最新的评估指标来评估模型 您可以使用贝叶斯优化相对于给定指标优化模型的超参数 我们提供了一个简单的网络信息中心,用于启动和控制优化实验 获取预处理的数据集 要获取数据集,您可以使用内置源之一。 from octis . dataset . dataset import Dataset dataset = Dataset () dataset . load ( "oc
1
双项主题模型 此程序包实现了由,兰介绍的短文本的。 它包括BTM模型的两种实现:cythonized)1 由小慧严,2)优化和cythonized 通过 。 它还能够计算困惑和语义一致性度量。 要求 赛顿 NumPy 大熊猫 科学 Scikit学习 pyLDAvis(可选) 设置 您可以从PyPi安装软件包: pip install bitermplus 或从此回购中: pip install git+https://github.com/maximtrp/bitermplus.git 例子 import bitermplus as btm import numpy as np from gzip import open as gzip_open # Importing and vectorizing text data with gzip_open ( 'dataset/Sea
1
lda2vec Moody的lda2vec的pytorch实现,这是一种使用词嵌入的主题建模方法。 原始论文: 。 警告:我个人认为使lda2vec算法起作用非常困难。 有时它找到几个主题,有时却找不到。 通常,找到的很多话题都是一团糟。 该算法易于产生较差的局部最小值。 它在很大程度上取决于初始主题分配的值。 对于我的结果,请参阅20newsgroups/explore_trained_model.ipynb 。 另请参见下面的实现详细信息。 失利 培训进行如下。 首先,将文档语料库转换为一组元组{(document id, word, the window around the word) | for each word in the corpus} {(document id, word, the window around the word) | for each word
2021-12-13 14:45:07 1.68MB pytorch topic-modeling word-vectors JupyterNotebook
1
基于最小领域知识的主题建模 ,一种基于融合知识的主题模型的微博话题发现方法,涉及自然语言处理领域 传统的主题挖掘技术基于概率统计的混合模型,对文本信息进行建模,使得模型能够自动挖掘出文本中潜在的语义信息,使用户能够快速的了解文本中所涉及的内容。通过主题模型,不仅能够获得文本集合中主要涉及的信息,而且能够获得每篇文档中的内容信息。常见的主题模型有概率潜在语义分析(ProbabilisticLatentSemanticAnalysis,PLSA)模型[1]和潜在狄利克雷分配(LatentDirichletAllocation,LDA)模型[2]。但该类技术仅考虑文本集合中的文本信息,其他有用的信息,如文本的类别信息等,无法被利用起来。
2021-11-04 12:26:59 526KB 主题模型 Topic Modeling
1