pyltp简介
LTP提供了一系列中文自然语言处理工具,用户可以使用这些工具对于中文文本进行分词、词性标注、句法分析等等工作。Pyltp是其的python接口。
官网地址:https://www.ltp-cloud.com/
官方文档:https://ltp.readthedocs.io/zh_CN/latest/begin.html
pyltp工具Demo
安装:pip install pyltp,前面说过通过这种方式安装一直不能成功
pyltp安装有点麻烦-.-,于是记录了window 10下的一种成功安装方法
1.首先,pip install pyltp安装报错:error: command 'C:\Program Files (x86)\Microsoft Visual Studio 14.0\VC\BIN\x86_amd64\cl.exe' failed with exit status 2
安装cmake,下载地址,https://cmake.org/download/
安装VS2008 EXPRESS,下载网址:https://visualstudio.microsoft.com/zh-hans/vs/express/
2.然后,我选择使用python setup.py install安装 - 下载pyltp,地址:https://github.com/hit-scir/pyltp - 下载ltp,地址:https://github.com/hit-scir/ltp - 解压ltp,然后将解压之后文件命名为ltp,覆盖pyltp文件夹中的ltp - 打开cmd,进入到pyltp目录下,找到setup.py - 先执行命令:python setup.py build - 然后执行命令:python setup.py install
3.使用里面的预训练模型,需要先下载,然后指定相应目录 - 下载地址:http://ltp.ai/download.html
注意:ltp3.4.0 版本 SRL模型 pisrl.model在windows系统下不可用 下载这个:http://ospm9rsnd.bkt.clouddn.com/server/3.4.0/pisrl_win.model
1.分词
from pyltp import Segmentorseg = Segmentor() #生成对象seg.load("pyltp-model\ltp_data_v3.4.0\cws.model") #加载分词预训练模型seg_words = seg.segment("我爱自然语言处理技术!")print(" ".join(seg_words))seg.release() #释放资源
我 爱 自然 语言 处理 技术 !
2.词性标注(对分好的词进行标注)
from pyltp import Postagger pos=Postagger()#加载词性预训练模型pos.load("pyltp-model\ltp_data_v3.4.0\pos.model")words_pos=pos.postag(seg_words)for k,v in zip(seg_words, words_pos): print(k+'\t'+v)pos.release()
我 r爱 v自然 n语言 n处理 v技术 n! wp
3.命名实体识别
from pyltp import NamedEntityRecognizerner = NamedEntityRecognizer()#加载命名实体识别预训练模型ner.load("pyltp-model\ltp_data_v3.4.0\ner.model")netags=ner.recognize(seg_words,words_pos)print(" ".join(netags))ner.release()
4.依存句法分析
from pyltp import Parserparser=Parser()parser.load("pyltp-model\ltp_data_v3.4.0\parser.model")arcs=parser.parse(seg_words,words_pos)print([(arc.head,arc.relation) for arc in arcs])parser.release()
[(2, 'SBV'), (0, 'HED'), (4, 'ATT'), (5, 'FOB'), (2, 'VOB'), (5, 'VOB'), (2, 'WP')]
5.语义角色标注
代码我已经上传github:https://github.com/yuquanle/StudyForNLP/blob/master/NLPtools/PyltpDemo.ipynb
更多个人笔记请关注:
公众号:StudyForAI(小白人工智能入门学习)
知乎专栏:https://www.zhihu.com/people/yuquanle/columns
领取专属 10元无门槛券
私享最新 技术干货