LTP数据模型提供了一系列中文自然语言处理工具,用户可以使用这些工具对于中文文本进行分词、词性标注、句法分析等等工作。从应用角度来看,LTP为用户提供了下列组件: 针对单一自然语言处理任务,生成统计机器学习模型的工具 针对单一自然语言处理任务,调用模型进行分析的编程接口 使用流水线方式将各个分析工具结合起来,形成一套统一的中文自然语言处理系统\ 系统可调用的,用于中文语言处理的模型文件 针对单一自然语言处理任务,基于云端的编程接口
2021-11-02 10:40:35 606.15MB nlp pyltp ltp 哈工大
1
Windows下pyltp 3.x 编译好的 whl 轮子文件,可以直接安装。包括: pyltp-0.2.1-cp36-cp36m-win_amd64.whl pyltp-0.2.1-cp35-cp35m-win_amd64.whl 模型文件可以在官网下载 http://ltp.ai/download.html
2021-11-01 11:12:24 2.23MB pyltp  whl python3.5 python3.6
1
pip install pyltp报错解决办法: 1、下载此文件;2、解压至磁盘;3、pip install C:\pyltp-0.2.1-cp35-cp35m-win_amd64.whl(以文件解压在C盘根目录为例,pip install 文件位置)
2021-10-28 16:39:11 1.12MB pyltp python3.5
1
python3.8版本可安装的pyltp资源,0虽然写的是0.2.1,其实就是0.4.0版本; pyltp 版本:0.4.0 LTP 版本:3.4.0 模型版本:3.4.0
2021-10-21 21:51:34 1.16MB python pyltp NLP whl安装包
1
哈工大pyltp安装的wheel文件,下载后在下载文件的目录,执行 pip install pyltp-0.2.1-cp36-cp36m-win_amd64.whl
2021-08-24 15:05:02 1.12MB pyltp 分词 命名识体 python
1
centos7系统下,解压后进入目录使用命令进行编译 命令:python3 setup.py start
2021-08-18 18:14:21 99.14MB python3 pyltp
1
python3.7安装from ltp import LTP的时候会报错,安装失败。这个安装一下就可以了。具体安装过程可以参考http://dy.163.com/article/EBEOM8MK0525P1E8.html(和这个里面的安装过程一样)文件名改成:pyltp-0.2.1-cp37-cp37m-win_amd64.whl
2021-08-17 09:00:10 1.12MB oltp 依存句法分析 分词 关键字提取
1
最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。 以下是整理的安装过程和注意事项。 希望能给大家提供些帮助。 目录一、Nlpir第一步:下载工具。第二步:下载后,解压,按如下顺序进入目录。第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。二、 Pyltp第一步:下载安装Pyltp。第二步:下载模型。第三步:使用基本组件。三、 Jieba第一步:pip安装,指令为第二步:基于python中jieba包的中文分词中详细使用。四、 Hanlp第一步:下载Hanlp 。第二步:在eclipse里导入项
2021-08-08 21:12:59 781KB hanlp ie jieba
1
哈工大pyltp使用的模型,包含实体识别,分词等功能,文件包含cws.model,ner.model,pos.model,以及自己添加的一些字典
2021-07-21 16:27:30 142.74MB pyltp NLP model
1
安装pyltp 出现Microsoft Visual C++ 14.0 required! pyltp-0.2.1-cp36-cp36m-win_amd64.whl pyltp-0.2.1-cp35-cp35m-win_amd64.whl
2021-07-20 09:02:30 2.24MB pyltp python
1