腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从solr分析服务请求
分词
、
、
我已经安装了solr及其中文
分词
软件
包
。它在中工作得很好。solr分析工具可以很好地与中文
分词
软件
包
配合
使用
。 我的问题是,如何将
分词
请求传递给solr,以及如何获得良好的响应?
浏览 1
提问于2011-12-22
得票数 0
1
回答
用POS标记确定句子的时间性
、
、
medication"或"He had already taken the stuff"对"he may take the stuff later" 我尝试了一种tidytext方法,并决定简单地寻找过去
分词
和将来
分词
动词但是,当我
使用
"Verb intransitive"、"Verb (usu participle)"和"Verb (transitive)"作为唯一动词类型的POS标记时。我如何才能对过去或将来的动词有一个概念,或
浏览 1
提问于2019-02-18
得票数 0
回答已采纳
1
回答
TCL切入JSON
、
、
我试图将dict转换成JSON格式,而没有看到
使用
TclLib Json
包
的任何简单方法。比如说,我定义了一个
分词
如下: set countryDict [dict create USA {population 300 capital DC} Canada {population 30 capital我正在
使用
TclLib json
包
()。任何帮助都将不胜感激。
浏览 8
提问于2021-04-29
得票数 2
回答已采纳
1
回答
text2vec
包
可以拆分中文句子吗?
、
、
目前已有的中文
分词
软件
包
有:解霸等,但我想用text2vec做文本聚类和线性回归模型。此外,如何进行文本聚类?J(train_ids)]#文档向量化#代表词语划分到什么程度#步骤1.设置
分词
迭代器 it_train=itoken(train$review, preproces
浏览 10
提问于2017-05-04
得票数 0
1
回答
泰语Maxent模型生成
、
在
使用
ApacheOpenNlp为泰语等语言创建模型时,
使用
分词
化的语料库来训练MxentModel是好的,还是应该
使用
未
分词
化的句子。
浏览 2
提问于2017-04-28
得票数 1
1
回答
使用
分词
时宽度自动:
分词
如何在
使用
word-break:break-word时自动调整p标签的宽度,使其等于文本所需的宽度?
浏览 7
提问于2020-08-26
得票数 0
回答已采纳
1
回答
抗失效的git拉在有损耗的片状连接上
我们在公共汽车和火车上部署了服务器,连接了互联网。这些服务器定期执行git拉,以更新部署在它们上的代码基。现在,由于互联网的损耗和碎片性质从这些线头,git拉经常被放弃时,正在进行中,这导致我们的地方回购腐败。我们经常会陷入这样一种状态: git开始抱怨松散的git对象,这些东西很难治愈。 看来git拉力并不是很能抵抗失败。只是想知道是否有人建议我们如何做一个git拉,是失败的抵抗,类似于所有或没有。
浏览 0
提问于2015-11-03
得票数 0
1
回答
NLTK斯坦福分部,如何设置CLASSPATH
、
、
、
、
我正在尝试
使用
NLTK标记
包
中的Segementer位。然而,我遇到的问题只是尝试
使用
基本的测试集。nltk.tokenize.stanford_segmenter import StanfordSegmenterseg.default_config('zh') sent = u'这是斯坦福中文
分词
器测试
浏览 8
提问于2017-10-13
得票数 2
回答已采纳
2
回答
使用
ICU进行
分词
、
、
、
、
我正在
使用
ICU4C来音译中日韩。我想知道是否有可能在ICU中进行
分词
,根据一些
分词
标准将中文文本分割成一系列的单词。例如,当我尝试音译时:
使用
Transliterator::所以下面的文本可能没有任何意义,但它应该说明我对哪种输出感兴趣): zhíjiē shūchū html dàimǎér bùshì zuò wèihán shùfǎn huízhídài hòu chùlǐ
浏览 3
提问于2012-11-21
得票数 0
回答已采纳
2
回答
如何在Elasticsearch中根据最大词数对句子进行标记化?
、
、
我有一个字符串,比如“这是一个美丽的一天”,我应该
使用
什么
分词
器或者
分词
器和
分词
过滤器之间的什么组合来生成包含最多2个单词的输出?理想情况下,输出应该是:" This,This,is,a,漂亮的一天,“到目前为止,我已经尝试了所有内置的记号赋予器,' pattern‘记号赋予器似乎是我可以
使用
的,但是我不知道如何为我的情况编写正则表达式模式
浏览 28
提问于2019-12-16
得票数 1
回答已采纳
1
回答
MALLET标记器
、
您好,我想
使用
mallet的主题建模,但是当我将数据导入到mallet中时,我可以提供我自己的
分词
器或文本文档的
分词
化版本吗?我发现MALLET的标记器不适合我的用法...
浏览 2
提问于2010-09-17
得票数 2
回答已采纳
1
回答
您输入的应用程序名称已被
使用
、
、
我得到了这个错误,我
使用
了其他应用程序的相同名称,但我已经从销售中删除了它,所以它应该允许我输入应用程序名称。暂时不会这么做。我如何才能为我的第二个应用程序取相同的名字(第一个已经从销售中删除)。
浏览 2
提问于2016-12-27
得票数 2
回答已采纳
2
回答
在局部中
使用
部分?
我有几个地方,一些页面,一些部分
使用
: data},让它成为一个部分是否有意义,因为它被反复
使用
,有时也在其他部分中
使用
? 还行吗。把部
分词
放进部
分词
?
浏览 0
提问于2012-07-27
得票数 4
1
回答
ROR:
使用
分词
、
在我页面的左边,有一个用户已经创建的文档列表。以及创建/编辑文档的表单。遵循页面设计方式的表示形式。| | |我试图做以下几件事2)当用户单击现有文档之一时,我希望更新表单以显示文档的详细信息。我已
浏览 3
提问于2013-03-30
得票数 0
1
回答
将IFS设置为非空白字符的Bash中的分字
、
、
、
、
这个名为"args“的脚本有助于演示
分词
示例:printf "%d args:" $#echo$ .但是,当我用非空白字符(比如: )替换IFS时,如果我直接将字符串作为参数传递,脚本就不会执行
分词
操作。1 args: <one:two:three> 但是,如果我(1)将字符串分配给一个变量,然
浏览 1
提问于2017-04-01
得票数 8
回答已采纳
2
回答
k8s自动
分词
器不工作,没有多少文档可读
、
我试图设置k8s自动
分词
器,我通过了:并做了很多实验,但无法使它工作。我有两种选择,但都不起作用: 在主服务器上部署自动
分词
器,我尝试了:helm install my-release stable/cluster-autoscaler --set autoDiscovery.clusterNamekey=node-role.kubernetes.io/master,但是它总是说字段tolerations[0].value=/"true/"并不像预期的那样,我尝试了几个我能想到的可能的版本,比如
浏览 1
提问于2020-04-07
得票数 0
回答已采纳
2
回答
使用
其最大宽度的容器,即使文本不太大
、
如果任何一行大于166 is,则应该有
分词
。查看此处的/CSS:
浏览 6
提问于2013-12-19
得票数 1
回答已采纳
1
回答
pandas中的Lemmatize标记化列
、
、
] = df1["comments_tokenized"].apply(lemmatize_text) 但却有 TypeError: unhashable type: 'list' 我能做些什么来用一
包
单词来对一列进行词汇化以及如何避免
分词
化的问题
浏览 44
提问于2020-01-03
得票数 1
回答已采纳
2
回答
Laravel Pretty URL srt_replace不起作用
、
我
使用
这个代码的导航菜单网址的漂亮的网址,但对于更多的2部
分词
,我有重定向页面到404在laravel,但对于一部
分词
没有问题 <a class="dropdown-item" href="/category
浏览 18
提问于2020-04-23
得票数 0
2
回答
正确允许bash中命令替换的
分词
、
我编写、维护和
使用
大量bash脚本。我会认为自己是一个巴什黑客,并努力争取有一天成为一个巴什忍者(首先需要学习更多的awk )。bash最重要的特性/挫折之一是引号和随后的参数展开是如何工作的。这是,出于一个很好的理由,在引用的参数扩展和
分词
的神秘世界中存在许多陷阱、bug和新手陷阱。出于这个原因,建议是“双引号”,但如果我希望
分词
发生呢?在 中,我找不到命令替换后安全、恰当地
使用
分词
的例子。
使用
未引用的命令替换的正确方法是什么?ps | awk '{print
浏览 2
提问于2016-06-20
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
北大开源全新中文分词工具包:准确率远超THULAC、结巴分词
准确率秒杀结巴分词,北大开源全新中文分词工具包PKUSeg
Elasticsearch6.0 IKAnalysis分词使用
Python中文分词工具:Jieba的基本使用
分词器一定要结合Lucene使用吗
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券