文件2 动机 给定两个具有相同行数的文件, files2rouge计算每个序列(=行)的平均ROUGE得分。 每个序列可以包含多个句子。 在这种情况下,必须使用--eos标志(默认值:“。”)传递句子字符串的结尾。 使用错误的eos分隔符运行files2rouge可能会导致ROUGE-L得分不正确。 您可能还对Python实现(而不是包装器)感兴趣: : 。 $ files2rouge --help usage: files2rouge [-h] [-v] [-a ARGS] [-s SAVETO] [-e EOS] [-m] [-i] refer
1
中文、英文、日文、阿拉伯文等常见姓名英语拼写,NLP方向学习用数据集。
2021-08-30 19:11:15 2.76MB NLP 数据集 姓名拼写
1
腾讯TEG NLP中文预训练模型探索与应用
2021-08-30 19:11:12 4.75MB 深度学习
零售产品分类 该项目有助于将零售产品分类。 尽管在此示例中,类别按层次结构进行了结构,但为简单起见,我将所有子类别都视为顶级类别。 该项目中使用的主要软件包是: , 和 。 您可以在阅读解释该项目的文章。 您将需要Python3 +才能使用此项目。 安装 1.下载 现在,您需要在工作空间中使用text-classification-python项目文件: $ git clone https://github.com/joaorafaelm/text-classification-python ; $ cd text-classification-python ; 2. Virtuale
2021-08-30 14:36:10 7.16MB python nlp machine-learning scraper
1
收集五本自然语言处理经典书籍电子书:Neural Networks and Deep Learning by Michael Nielsen;PYTHON自然语言处理中文翻译;Speech and Language Processing;统计自然语言处理;统计自然语言处理基础(中文版 带书签)。
2021-08-29 15:42:38 64.87MB NLP
1
NLP文本分类数据
2021-08-29 13:12:17 839.23MB nlp 深度学习 数据挖掘 机器学习
1
fasttext图书分类
2021-08-29 09:10:52 131.1MB NLP、分类
1
这个案例主要是利用tfa框架Sequence to Sequence Model Architecture中的Attention以及Encoder-Decoder方法实现神经机器翻译(Neural Machine Translation,NMT),当然翻译的准确性不可能像BERT之类的那么好,但可以作为一个入门实验,通过这个案例,大家应该对Attention的使用有了更清晰、更全面的认识。
2021-08-28 18:14:36 4.39MB attention 机器翻译 自然语言处理 nlp
PyTorch的BERT中文文本分类 此存储库包含用于中文文本分类的预训练BERT模型的PyTorch实现。 代码结构 在项目的根目录,您将看到: ├── pybert | └── callback | | └── lrscheduler.py   | | └── trainingmonitor.py  | | └── ... | └── config | | └── base.py #a configuration file for storing model parameters | └── dataset    | └── io     | | └── be
2021-08-27 20:50:35 46KB nlp text-classification pytorch chinese
1