张量板聚合器 该项目包含一个易于使用的方法来聚合多个张量板运行。 来自多次运行的标量的最大值,最小值,平均值,中位数,标准偏差和方差将另存为新的张量板摘要或.csv表。 有一个类似的工具使用pytorch输出张量板摘要: 功能概述 聚合多个张量板文件的标量 将聚合另存为新的Tensorboard摘要或另存为.csv 通过任何numpy函数进行汇总(默认值:最大值,最小值,平均值,中位数,标准差,变量) 允许任意数量的子路径结构 保持步骤编号 节省每一步的平均挂墙时间 设置和运行配置 将存储库文件下载或克隆到您的计算机 进入存储库文件夹 安装要求: pip3 install -r requirements.txt --upgrade 现在,您可以使用以下命令运行聚合: python aggregator.py 参数 范围 默认 描述 - 小路 可选的 当前工作目录 包含运行的文件
2022-11-06 15:35:23 8KB tensorflow aggregator tensorboard summarizer
1
abstractive_summarizer 使用Transformer的抽象文本摘要 Vaswani等人从“注意就是您所需要的”中体现了最先进的变压器模型。 al。 短裤数据集: ://www.kaggle.com/shashichander009/inshorts-news-data 博客链接: 第一部分: : 第二部分: : 许可证:
2022-03-07 20:53:21 12.58MB JupyterNotebook
1
seq2seq_Pointer_Generator_Summarizer 一个用于深度抽象摘要项目的深度学习神经网络:这是一个从中文对话中生成摘要总结的项目。有趣的对话是客户和汽车技术人员之间的对话,其中有80000多个样本用于培训和测试,还有20000样本用于预测。数据基准线在某种程度上对于中文是典型的,清除数据-段-标记化-批处理。但是,处理长时间的对话并向word2vec模型添加特殊令牌是很棘手的。通过重新训练模型将特殊令牌添加到w2v模型。 还提供了原始数据集,细分数据集,w2v模型之类的文件以供立即测试。请注意,嵌入矩阵文件太大,无法上传。 在此项目中,您可以:训练模型,测试模型或评估模型:一切都是经典的并使用tensorflow 2.0构建,单词嵌入由word2vec进行预训练,并且seq2seq包括Gru作为编码器,Bahdanau注意和单向Gru作为解码器。该模型还包含指针
2022-03-04 09:28:16 16.28MB Python
1
伯特提取摘要器 此存储库是演讲摘要存储库的一般化。 该工具利用HuggingFace Pytorch变压器库来进行提取性汇总。 通过首先嵌入句子,然后运行聚类算法,找到最接近聚类质心的句子,可以实现这一目的。 该库还使用共指技术,利用库解析需要更多上下文的摘要中的单词。 可以在CoreferenceHandler类中调整Neurocoref库的贪婪性。 论文: : 尝试在线演示: 安装 pip install bert-extractive-summarizer 使用Neurocoref的共指功能需要一个spaCy模型,该模型必须单独下载。 默认模型是小型英语spaCy模型(en_core_web_sm,11Mb),并随此软件包自动安装。 要使用其他型号,您必须手动安装。 示例:安装中型(91 Mb)英文模型(有关更多模型,请参见)。 pip install spacy pi
1
text_summarizer 我在 Eclipse 环境中从事该项目。 运行程序时最好使用 Eclipse。 仅供参考,我的笔记本电脑是macbook,使用JRE1.7编译程序。 我对单元测试做了几个假设: 我假设所有文档都具有正确的语法语法,例如以大写字母开头的新句子等。 输入文本文件具有正确的格式,这意味着文件没有二进制或十六进制数等。 至于单元测试,这些是我认为我应该确保我的程序正常工作的测试:[方向:测试用例时,只需在Eclipse的控制台上输入文件名] test1.txt:检查字数是否正确完成。 test2.txt:检查句子计数是否正确完成。 test3.txt:如果文本文件为空,检查程序是否返回正确的输出。 test4.txt:检查单词出现次数计算是否正确。 test5-1.txt:检查每个句子的加权分数是否计算正确。 test5-2.txt:检查每个句
2021-06-16 18:05:10 17KB Java
1