我想安装斯坦福解析器的python接口。
在首先运行rake设置安装jpype时,我保留ge。
In file included from src/native/common/jp_reference.cpp:1:0:
src/native/common/include/jpype.h:45:17: schwerwiegender Fehler: jni.h: Datei oder Verzeichnis nicht gefunden
Kompilierung beendet.
error: command 'gcc' failed with exit status
我们有一段文本要检查语法是否正确。我们正在使用NLTK,在词性标记之前一切都很好,但是当我们开始进行解析时,我们意识到nltk仍然没有像那样的统计解析。NLTK允许我们制作僵化的玩具语法。
因此,在类似的中,用户larsmans提到使用斯坦福解析器,然后根据概率检查块。但斯坦福大学不会它。
你能给我们推荐一些工具,算法,指针,建议,这些可以帮助我们走上正确的道路,检查语法(比如平均20个单词长度的句子,最好是python).We found
我为这个问题的本质--这个问题的本质--道歉--我一直在试图弄清楚Python的打包和名称空间,但我似乎没有找到更好的观点。也就是说,我想用Python包装来处理斯坦福的部分词性标签.我不难找到文档,它提供了一个使用示例:
st = StanfordTagger('bidirectional-distsim-wsj-0-18.tagger')
st.tag('What is the airspeed of an unladen swallow ?'.split())
[('What', 'WP'), ('is
我使用斯坦福命名实体识别器和Python在小说“百年孤独”中找到正确的名字。它们中有许多是由名字和姓氏组成的。"Aureliano Buendía“或"Santa Sofía de la Piedad”。这些标记总是分开的。因为我正在使用的令牌器,"Aureliano“”布埃布迪亚“。我希望他们在一起作为一个象征,这样他们就可以被标记为“人”与斯坦福纳。
我写的代码:
import nltk
from nltk.tag import StanfordNERTagger
from nltk import word_tokenize
from nltk import