summary.py 简单的基于多语言Python和NLTK的文本摘要实现。 安装 $ pip install pysummarize 设置 使用之前,请确保已下载stopwords和punkt NLTK软件包: import nltk nltk . download ([ 'stopwords' , 'punkt' ]) 快速开始 from summarize import summarize summarize ( "Alice and Bob are friends. Alice is fun and cuddly." " Bob is cute and quirky. Together they go on wonderful" " adventures in the land of tomorrow. Alice's cuddline
2022-05-07 00:38:14 7KB Python
1
abstractive_summarizer 使用Transformer的抽象文本摘要 Vaswani等人从“注意就是您所需要的”中体现了最先进的变压器模型。 al。 短裤数据集: ://www.kaggle.com/shashichander009/inshorts-news-data 博客链接: 第一部分: : 第二部分: : 许可证:
2022-03-07 20:53:21 12.58MB JupyterNotebook
1
伯特提取摘要器 此存储库是演讲摘要存储库的一般化。 该工具利用HuggingFace Pytorch变压器库来进行提取性汇总。 通过首先嵌入句子,然后运行聚类算法,找到最接近聚类质心的句子,可以实现这一目的。 该库还使用共指技术,利用库解析需要更多上下文的摘要中的单词。 可以在CoreferenceHandler类中调整Neurocoref库的贪婪性。 论文: : 尝试在线演示: 安装 pip install bert-extractive-summarizer 使用Neurocoref的共指功能需要一个spaCy模型,该模型必须单独下载。 默认模型是小型英语spaCy模型(en_core_web_sm,11Mb),并随此软件包自动安装。 要使用其他型号,您必须手动安装。 示例:安装中型(91 Mb)英文模型(有关更多模型,请参见)。 pip install spacy pi
1
俄语文本摘要的GPT-3微调_Fine-tuning GPT-3 for Russian Text Summarization.pdf
2022-01-22 09:02:12 178KB cs
从单文档中生成简短精炼的摘要文本可有效缓解信息爆炸给人们带来的阅读压力。近年来,序列到序列(sequence-to-sequence,Seq2Seq)模型在各文本生成任务中广泛应用,其中结合注意力机制的Seq2Seq模型已成为生成式文本摘要的基本框架。为生成能体现摘要的特定写作风格特征的摘要,在基于注意力和覆盖率机制的Seq2Seq模型基础上,在解码阶段利用变分自编码器(variational auto-encoder,VAE)刻画摘要风格特征并用于指导摘要文本生成;最后,利用指针生成网络来缓解模型中可能出现的未登录词问题。基于新浪微博LCSTS数据集的实验结果表明,该方法能有效刻画摘要风格特征、缓解未登录词及重复生成问题,使得生成的摘要准确性高于基准模型。
2021-12-12 10:35:17 1.16MB 文本摘要 变分自编码器 Seq2Seq模型
1
电影流派分类器 使用多类分类算法和逻辑回归,根据剧情文本摘要对电影类型进行分类。<
2021-11-23 17:32:51 91.59MB JupyterNotebook
1
基于深度学习的文本摘要生成技术之计算机研究.docx
2021-10-08 23:11:35 24KB C语言
DeepMind Q&A Dataset: CNN/Daily Mail Stories 文本摘要数据集 百度云 https://cs.nyu.edu/~kcho/DMQA/
2021-09-30 16:09:19 67B cnn Daily Mail 文本摘要
1
解压后即,cnn_stories.tgz 和 dailymail_stories.tgz,它们是做文本摘要需要的数据集,来源于https://cs.nyu.edu/~kcho/DMQA/。
1
PyTorch实现的轻量seq2seq文本摘要
2021-09-09 16:06:04 28KB Python开发-机器学习
1