基于几个可用的NER和RE数据集定义了7个实体标签和9个关系标签。实体(Entity):每个实体都由带有多个属性的T标签标识。关系(Relation):每个关系由R标签标识,该标签可以具有多个属性。
1
毕业论文endnote文献输出格式,基于GBT7714修改,基本满足所有高校毕业论文输出格式
2021-06-18 19:01:52 33KB endnote GBT7714
1
SIMATIC STEP7 V5.6 Chinese链接地址
2021-06-17 18:03:53 147B SIMATICSTEP7 V5.6 Chinese 链接地址
Simatic_Step7_v5.5_sp4_chinese链接地址
2021-06-17 18:03:52 147B Simatic_Step7 v5.5 sp4 chinese
高通QCAP入门指南中文版
2021-06-16 17:18:27 1.06MB 文档
1
《简明Python教程》 | byte-of-python-chinese-edition.pdf
2021-06-16 16:18:58 2.16MB python
1
《多采样率系统》(Multiratensysteme)一书配套的(中文界面)MATLAB可视化程序
2021-06-16 16:10:49 2.32MB matlab 多速率 有理数倍采样
1
LTP 4 LTP(Language Technology Platform) 提供了一系列中文自然语言处理工具,用户可以使用这些工具对于中文文本进行分词、词性标注、句法分析等等工作。 If you use any source codes included in this toolkit in your work, please kindly cite the following paper. The bibtex are listed below: @article{che2020n, title={N-LTP: A Open-source Neural Chinese Language Technology Platform with Pretrained Models}, author={Che, Wanxiang and Feng, Yunlong and Qin, Li
1
pyltp pyltp 是 的 Python 封装。 在使用 pyltp 之前,您需要简要了解 能否帮助您解决问题。 目前基于Pytorch的LTP4 已经发布,而PyLTP将会只有非常有限的维护,请大家移步使用[LTP 4]() 依赖支持情况 Python 2.7, 3.x, and PyPy (PyPy2.7 >= 5.7) 一个简单的例子 下面是一个使用 pyltp 进行分词的例子 # -*- coding: utf-8 -*- from pyltp import Segmentor segmentor = Segmentor("/path/to/your/cws/model") words = segmentor.segment("元芳你怎么看") print("|".join(words)) segmentor.release() 除了分词之外,pyltp 还提供词性标注、命名
2021-06-13 13:16:20 27KB python chinese-nlp 附件源码 文章源码
1
这是一个以20位中国著名书法家的风格编写的汉字作品的数据集。每个子集中有1000-7000张jpg图像(平均5251张图像)。每张图像的尺寸为64 * 64,代表一个汉字。数据集分为训练集(80%)和测试集(20%)。书法家的姓名缩写用作标签。更多详细信息,请参见Summary.csv文件。 Summary.csv Chinese Calligraphy Styles by Calligraphers_datasets.txt Chinese Calligraphy Styles by Calligraphers_datasets(1).zip
2021-06-12 18:05:11 164.91MB 数据集
1