我正在使用Spacy进行文本分析。我需要计算在文本中出现的数字数量,其中文本包含表达式'1/2‘。
如何在不使用正则表达式的情况下分别计算"1“和"2”?
我的代码:
for token in doc:
if token.pos_ =='NUM':
m.append(token.text)
for item in set(m):
print(f'"{item}" was found {m.count(item)} times in text')
我想纠正法语文本中拼写错误的单词,似乎spacy是最准确和最快的软件包,但它太复杂了,我尝试使用textblob,但我不能用法语单词来纠正
它在英语中工作得很好,但当我尝试用法语做同样的事情时,我得到了同样的拼写错误的单词
#english words
from textblob import TextBlob
misspelled=["hapenning", "mornin", "windoow", "jaket"]
[str(TextBlob(word).correct()) for word in misspelled]
我正在努力打印中文文本的实体和pos。
我已经安装了# !pip3安装jieba,并使用Google作为下面的脚本。
但是我得到的是实体的空元组,而pos_没有结果。
from spacy.lang.zh import Chinese
nlp = Chinese()
doc = nlp(u"蘋果公司正考量用一億元買下英國的新創公司")
doc.ents
# returns (), i.e. empty tuple
for word in doc:
print(word.text, word.pos_)
''' retur
我在一个NLP项目中工作,我必须使用spacy和spacy Matcher来提取所有命名实体,它们是nsubj (主题)和与之相关的动词:我的NE nsubj的管理者动词。示例: Georges and his friends live in Mexico City
"Hello !", says Mary 我需要提取第一句中的"Georges“和"live”,以及第二句中的"Mary“和”and“,但我不知道在我的命名实体和与其相关的动词之间会有多少个单词。所以我决定更多地探索spacy Matcher。所以我正在努力在Matcher上写一个模式来提
我使用以下命令(来自spacy网站)在Windows10home 64位下安装spacy和en_core_web_trf,但是在运行最后(第三行)命令时遇到了问题。
pip install -U pip setuptools wheel
pip install -U spacy
python -m spacy download en_core_web_trf
错误:
INFO: pip is looking at multiple versions of en-core-web-trf to determine which version is compatible with other re
问题
在之后,我尝试添加一个额外的训练数据集,并在本地cpu环境中训练一个模型。
但我不会更改base_config.cfg和config.cfg文件的内容。
如何修复这些错误来构建模型并对其进行评估?
错误
我不确定第一个问题是否是一个问题,我也不知道如何填写config.cfg文件。
到目前为止,即使在执行以下过程中的代码之后,config.cfg文件仍然是空的。
执行列车命令时会显示错误消息。
ℹ Using CPU
✘ Error parsing config overrides
paths -> train not a section value t
在spacy 2中,我使用它向空的spacy模型(spacy init)添加了一个词汇表:
nlp3=spacy.load('nl_core_news_sm') #standard model without vectors
spacy.load("spacyinitnlmodelwithvectorspace",vocab=nlp3.vocab)
在spacy夜间版本3.0.0rc中,vocab参数不再存在于spacy.load中。有没有人建议我如何在spacy模型中添加语音?
背景 我在以下本地环境中工作,需要在GoogleColab上使用spaCy 3.0。 然而,由于spaCy版本的原因,在3.0之后安装python似乎是可以接受的。 spaCy version 3.0.5
Python version 3.9.1 错误 如何在GoogleColab上使用3.0以后的spaCy,或者现在不能使用? Requirement already satisfied: spacy in /usr/local/lib/python3.7/dist-packages (2.2.4)
ERROR: Could n
我试图使用spacy,以便从文本中获得正确的名称,但是当我运行代码时,我得到了
Traceback (most recent call last):
File "C:/Users/L/Desktop/spacy.py", line 2, in <module>
import spacy
File "C:\Users\L\Desktop\spacy.py", line 3, in <module>
from spacy.matcher import Matcher
ModuleNotFoundError: No mo
在spacy 3.0中,我注册了我的自定义语言,如下所示: import spacy
from spacy.lang.en import English
class CustomEnglishDefaults(English.Defaults):
stop_words = set(["custom", "stop"])
@spacy.registry.languages("custom_en")
class CustomEnglish(English):
lang = "custom_en"
Defa
当我尝试重新培训spacy英语模型时,正如我在示例中所发现的那样,它失败了:
Python 3.6.2 (v3.6.2:5fd33b5926, Jul 16 2017, 20:11:06)
[GCC 4.2.1 (Apple Inc. build 5666) (dot 3)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
>>> import spacy
>>> from spa
我想做的是 我想提取的词,这是在spaCy上,自然语言操作系统的具体标签。 specific labels on spaCy 在下面的例子中,我希望打印单词English,因为选择了标签LANGUAGE。 English 问题 没有用于提取每个单词上的标签的示例代码。 我如何修复下面的错误? TypeError: Argument 'string' has incorrect type (expected str, got spacy.tokens.token.Token) 当前代码 import spacy
from spacy import displacy
nlp =
我使用了中提供的命令。我遵循以下所有步骤:-
使用spacy格式创建模型TRAIN_DATA =[ ("Pizza is a common fast food.", {"entities": [(0, 5, "FOOD")]}), ("Pasta is an italian recipe", {"entities": [(0, 5, "FOOD")]})]
使用以下代码转换.spacy文件中的列车和开发数据:-
import os
from tqdm import tqdm
impo
我正在尝试下载spacy ray for spacy v3.0。我希望在conda虚拟环境中实现这一点,在这个虚拟环境中,我拥有spacy v3.0和其他依赖项。我想不出怎么下载它。我试过conda install spacy-ray和conda install -c conda-forge spacy-ray。他们说找不到这样的模块。然后我放弃了,尝试使用pip install spacy-ray,但得到了以下消息: ERROR: Cannot install spacy-ray==0.0.0, spacy-ray==0.1.0 and spacy-ray==0.1.1 because t
我正在尝试计算spacy中的标记相似度。即单词标记彼此有多近。我使用的是spacy版本2.0.5。这是我的一个简单的例子。
import spacy
from spacy.lang.en import English
from spacy.tokenizer import Tokenizer
nlp = spacy.load('en')
x = nlp(u'apple')
y = nlp(u'apple')
x.similarity(y)
它的回报率是-81216639937292144.0,但我原本预计是1.0。
此外
x = nlp(
我正在开发一个使用Spacy的代码库。我使用以下方法安装了spacy:
sudo pip3 install spacy
然后
sudo python3 -m spacy download en
在最后一条命令的末尾,我收到了一条消息:
Linking successful
/home/rayabhik/.local/lib/python3.5/site-packages/en_core_web_sm -->
/home/rayabhik/.local/lib/python3.5/site-packages/spacy/data/en
You can now load the m
我正在尝试加载en_core_web_sm spaCy模型,但没有成功。
发生的错误如下:
OSError: [E050] Can't find model 'en_core_web_sm'. It doesn't seem to be a Python package or a valid path to a data directory.
我在Anaconda虚拟环境中工作。下面的复选框被勾选:
在安装environmentThen,之前,做了conda activate gcp-env,英语语言模型运行了conda install -c conda-for
我安装了spacy_stanza并下载了拉丁文模型,但是我得到了以下错误:
ImportError: [E048] Can't import language la or any matching language from spacy.lang: No module named 'spacy.lang.la'
下面是我使用的代码:
import spacy
import stanza
import spacy_stanza
stanza.download("la")
nlp = spacy_stanza.load_pipeline("la&