腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2065)
视频
沙龙
1
回答
从solr分析服务请求
分词
、
、
我已经安装了solr及其
中文
分词
软件包。它在中工作得很好。solr分析工具可以很好地与
中文
分词
软件包配合使用。 我的问题是,如何将
分词
请求传递给solr,以及如何获得良好的响应?
浏览 1
提问于2011-12-22
得票数 0
1
回答
运行斯坦福大学CoreNLP
中文
版的代码片段
我需要在原始
中文
文本上运行NER。有没有人能提供一个代码片段来做这件事? 我找到了说明:“……你首先需要运行斯坦福
分词
程序或其他一些
中文
分词
程序,然后在输出上运行NER!”但我想不出该
怎么
做。
浏览 2
提问于2016-01-21
得票数 1
1
回答
使用NLTK为
中文
运行StanfordPOSTagger时的意外格式
、
、
、
、
nltk.tag import StanfordPOSTagger print(st.tag('这 是 斯坦福
中文
分词
器 测试'.split()))[('', '这#PN'), ('', '是#VC'), ('', '斯坦福#NR'), ('',
浏览 6
提问于2017-08-07
得票数 2
回答已采纳
1
回答
CoreAnnotations中的UTypeAnnotation是做什么的?
我检查了文档,但里面什么也没提到。和
浏览 0
提问于2015-05-27
得票数 0
2
回答
使用ICU进行
分词
、
、
、
、
我想知道是否有可能在ICU中进行
分词
,根据一些
分词
标准将
中文
文本分割成一系列的单词。不过,我正在寻找的内容更像下面的文本(我不懂任何
中文
,所以下面的文本可能没有任何意义,但它应该说明我对哪种输出感兴趣):说ICU50能够
分词
,但我在他们的网页上也找不到任何文档。想知道你们中是否有人在ICU中使用过
分词
,或者知道如何进行
分词
,或者是
浏览 3
提问于2012-11-21
得票数 0
回答已采纳
4
回答
响应本机<Text>元素上的控制字/文本中断
是否有一种方法来控制文本组件
中文
本的
分词
行为?在iOS上有一个多行的文本组件,它会自动在有
分词
的地方分解文本(我还没有检查android,但我也需要它在那里工作)。
浏览 0
提问于2019-08-20
得票数 4
回答已采纳
1
回答
text2vec包可以拆分
中文
句子吗?
、
、
如何在text2vec中设置切分
中文
的itoken?这个例子是针对英语的!目前已有的
中文
分词
软件包有:解霸等,但我想用text2vec做文本聚类和线性回归模型。此外,如何进行文本聚类?J(train_ids)]#文档向量化#代表词语划分到什么程度#步骤1.设置
分词</
浏览 10
提问于2017-05-04
得票数 0
2
回答
分词
统计法
、
、
你能告诉我一些关于这些算法在
分词
问题上的应用的信息吗? UPD:我已经使用Peter Norvig的中的一些建议在Clojure上实现了这个方法
浏览 4
提问于2012-03-12
得票数 7
回答已采纳
2
回答
有没有一种在c++中检测汉字的方法?(使用助推)
、
、
、
在一个数据处理项目中,我需要检测汉语中的拆
分词
(
中文
中的单词不包含空格)。是否有一种使用本机c++特性或boost.locale库检测汉字的方法?
浏览 7
提问于2020-06-23
得票数 2
回答已采纳
1
回答
如果一些字符是
中文
,我们如何将utf-8字符分隔成单词?
、
如果字符串混合了
怎么
办?我想我可以检测出这个字符是否是
中文
,或者这个字符是空格分隔的单词还是没有分隔的单词。这个问题之所以棘手,是因为汉字和西文的
分词
是不同的。西文字符用空格分隔,
中文
字符用空格分隔。 我想我们可以在拆分之前先检测出这个字符是不是
中文
。那很好,但是我也不知道该
怎么
做。
浏览 0
提问于2012-09-14
得票数 0
1
回答
神经标记器是如何工作的?
、
我一直在尝试构建一个NN标记器,其中输入将是字符和输出,令牌。我发现做类似事情的源代码要么是旧的,要么不是简单易学的。你能描述这种模型的输入和输出的形状和意义吗?如果输出是一个热的,那么它是不是太重了,因为令牌的总数大约是100到100万(可能的英语单词数)? 您是否推荐使用keras/tensorflow (希望2.0)训练令牌器的教程或示例?
浏览 0
提问于2020-10-15
得票数 -1
1
回答
引导程序:文本在列表组项框之外。
、
、
、
有人知道
怎么
解决这个问题吗?
浏览 0
提问于2018-02-19
得票数 1
回答已采纳
1
回答
错误:找不到或加载主类edu.stanford.nlp.ie.crf.CRFClassifier
、
我试着用StanfordSegmenter来分割一段
中文
,但遇到了标题问题。我第一次从下载斯坦福
分词
器3.5.2版本import ossentence = u"这是斯坦福
中文
<
浏览 1
提问于2016-11-05
得票数 1
1
回答
中文
分词
器stanford core nlp
、
、
有没有人能帮我用斯坦福的核心nlp来标记化java中的
中文
文本?
浏览 0
提问于2015-05-29
得票数 1
1
回答
在css中实现表的最干净的方法,哪一列没有显式宽度(但包装内容),而其他列具有固定宽度?
、
、
我有两张桌子,每一张占屏幕的50%,两者看起来完全一样。每个表包含三列,第一列没有显式宽度,占用了所有可用空间。不管屏幕大小如何,其他两列都有固定的宽度。我希望包装第三列的内容。display: grid;在第一栏中,我使用了一个flex,如:align-items: center;flex-wrap: wrap; 如果第一列的内容不溢出,则此代码运行良好,但是,如果第一列的内容太长,则内容将溢出(可能是因为没有显式宽度
浏览 2
提问于2019-01-14
得票数 3
回答已采纳
1
回答
无法进行
分词
:用于
中文
和日语的
分词
css
我必须将以下CSS属性应用于HTML标签
分词
: break-word它在诸如英语、德语和法语等罗马文字的情况下工作得很好,但在
中文
、日语和韩语等语言中它却失败了。我有什么方法可以做到这一点吗?
浏览 0
提问于2019-11-22
得票数 0
1
回答
斯坦福汉语
分词
器在Python中如何不用标点符号返回结果
、
、
、
我试图用Python中的斯坦福
分词
来分割一个
中文
句子,但是目前的结果中有标点符号。我想返回没有标点符号的结果,只返回单词。做这件事的最好方法是什么?我试着在谷歌上搜索答案,但什么也没找到。
浏览 1
提问于2015-03-06
得票数 2
回答已采纳
1
回答
在哪里可以找到文件`slf4j-api.jar‘
、
、
、
我正在尝试使用NLTK和Stanford Segmenter相结合的方法进行
中文
分词
,但在一开始就卡住了。我不知道在哪里可以找到文件slf4j-api.jar。我不熟悉JAVA。
浏览 1
提问于2017-05-31
得票数 0
1
回答
如何在Java中使用StanfordNLP
中文
分词
?
、
Using mention detector type: rule如何正确使用StanfordNLP
中文
分词
工具?
浏览 21
提问于2016-07-15
得票数 0
1
回答
斯坦福POS标签不标注
中文
文本
、
、
、
我第一次使用Stanford标签(这是第一次),虽然它正确地标记了英语,但即使在更改模型参数时,它似乎也不识别(简体)
中文
。我忽略了什么吗?然后我就跑 从模型/
中文
阅读POS标签模型.完成3.5秒。
浏览 0
提问于2013-04-18
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
“结巴”中文分词:做最好的 Python 中文分词组件
PHP中文分词扩展
简单有效的多标准中文分词
中文分词系列之基于 AC 自动机的快速分词
Python中文分词工具:Jieba的基本使用
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券