腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
tokenize
迭代
、
root> <xsl:for-each select="
tokenize
"correspondents" select="." as="xs:string"/> <xsl:variable name="c
浏览 28
提问于2019-02-01
得票数 0
回答已采纳
1
回答
用生成器标记文件
、
、
、
我有一个方法
tokenize
,它接受一个字符串(一行代码,它不能一次接受整个文件),将它分解成各个部分,并返回一个生成器,生成这些部分,直到它到达行尾为止。这些都是给你的。read_file): self.line = self.file.readline() if self.line == '': return
浏览 0
提问于2017-10-28
得票数 7
回答已采纳
6
回答
FreqDist与NLTK
、
、
下面是我目前
使用
该函数的方式:p = file_y.read()vocab = fdist.keys() vocab
浏览 15
提问于2011-01-08
得票数 34
1
回答
Word2Vec词汇表只生成字母和符号
、
、
、
、
首先,我
使用
nltk来分隔句子,然后
使用
生成的句子列表作为Word2Vec的输入。然而,当我打印单词时,它只是一堆字母、数字和符号,而不是单词。\Thesis\\Descriptions.txt','r') as f_open:arr = [] sentences = nltk.sent_
tokenize
浏览 0
提问于2019-02-28
得票数 2
回答已采纳
1
回答
在XSL中,在变量中删除文件名中的路径。
我尝试过
使用
tokenize
()和substring-after(),但两者都返回类似的错误。“不允许多个项的序列作为fn的第一个参数:
tokenize
()(”dir1 1/jpg001.jpg“,”dir1 1/jpg002.jpg“”dir1 1/jpg003.jpg“)。
浏览 0
提问于2018-10-14
得票数 1
1
回答
如何标记文件?
、
、
我希望能够分析
使用
NLTK的本地txt文件。通过分析,我指的是
使用
NLTK功能,如标记化、情感分析等。from nltk.
tokenize
import sent_
tokenize
, word_
tokenize
for line in f: f_contents = f.r
浏览 0
提问于2018-01-29
得票数 0
回答已采纳
1
回答
CString令牌化问题
、
、
我
使用
CString::
Tokenize
方法来
使用
分隔符对字符串进行标记化,但我注意到了一些奇怪的事情,我在循环中对字符串调用了该方法,因为我想检索字符串中的所有标记,以下是我的代码: TRACE( "Iteration No %d\n",nTokenPos);596Iterat
浏览 1
提问于2012-09-25
得票数 3
回答已采纳
2
回答
使用
Python NLTK标记大型(>70MB) TXT文件。连接并将数据写入流错误
、
、
\MyFile.txt","r").read()tokens = '' tokens+=nltk.word_
tokenize
objectsimport nltktype(raw) tokens = nltk.word.
tokenize
浏览 0
提问于2012-03-25
得票数 5
回答已采纳
1
回答
每个方法返回不正确的结果。
、
、
、
、
在一些Groovy代码中,我已经写了一行ArrayList intCurrentArray = [] for (x in currentVersion.
tokenize
('.'))
浏览 3
提问于2014-08-01
得票数 0
回答已采纳
2
回答
来自可
迭代
节点的子字符串
、
请考虑以下示例文件:哈利波特学习XML OTOH
tokenize
((//title/text())[1],' ')[1]返回第一个节点的名称。如何在
迭代
节点时
使用
XPath获取子字符
浏览 5
提问于2012-09-19
得票数 3
回答已采纳
2
回答
迭代
字典的值()
、
、
、
、
我试图
使用
for循环来标记字典的每个值,但我得到了一个错误:'float‘对象不可
迭代
。for answer in answers: tokenized_answers[doc] = [
tokenize
(answer, tokenizer)] tokenized_answers[doc].append(
tokenize
(answer, tokenizer
浏览 17
提问于2020-05-16
得票数 0
1
回答
如何将numpy数组转换为常规python列表?
、
、
、
、
因此,我
使用
pandas从csv文件中获取输入,并
使用
nltk对其执行标记化。, in word_
tokenize
File "/home/codelife/.local/lib/python3.5/site-packages/nltk/
tokenize
/__init__.py&quo
浏览 2
提问于2017-05-09
得票数 0
1
回答
给定一个在FsLexYacc中实现的lexer,我如何获得所有的令牌?
、
、
Scripting let lexBuffer = LexBuffer<char>.FromString input Lexer.
tokenize
浏览 9
提问于2021-11-21
得票数 0
回答已采纳
1
回答
通过jenkins-cli.jar将extendedChoice类型的参数传递给Jenkins管道
、
、
我有以下声明性管道。它定义了复选框多选择参数: agent any ansiColor('xterm') parameters { extendedChoice description: '', multiSelectDelimiter: ',', name: 'NAMES', quoteValue: false, saveJSONParameterToFile: false,
浏览 0
提问于2020-06-10
得票数 2
1
回答
如何
使用
Boost::Spirit::Lex在不先将整个文件读入内存的情况下对文件进行lex?
、
、
、
我正在考虑
使用
boost::spirit::lex编写一个词法分析器,但我能找到的所有示例似乎都假定您首先将整个文件读入RAM。我想写一个词法分析器,它不需要整个字符串在RAM中,这可能吗?或者我需要
使用
其他东西?char const* first = str.c_str(); char const* last = &first[str.size(
浏览 2
提问于2011-01-18
得票数 6
2
回答
python3.x中的标记化
、
、
logical_line):
tokenize
一个想法是在'
tokenize
‘语句(代码的最后一行)之前直接调用函数
tokenize
.eat()。但我不确定要传递的参数。我相信一定有更好的方法去做。
浏览 12
提问于2011-02-10
得票数 1
回答已采纳
1
回答
nltk pos标签看起来包含'.‘。
、
、
、
content = articles tokens = nltk.word_
tokenize
浏览 3
提问于2013-12-18
得票数 2
回答已采纳
2
回答
用Python提取包含一个单词的句子..。以及它周围的句子?
、
、
、
、
在提取包含一个单词的特定句子(如和)时,有很多问题,而且我有足够的初学者经验,可以自己完成NLTK和SciPy的操作。例如:在这个例子中,目标词是“the”。如果我想提取目标句子(我能做什么?)以及前面和后面的句子(我伸手拿起我的伞,但我意识到我在家里忘了它。)我立刻跑到最近的一棵树上。),什么是好的方法? 假设我把每一段都分割成自己的文
浏览 4
提问于2014-05-22
得票数 2
回答已采纳
1
回答
基于向量的零密码
、
、
sstream>#include <algorithm> std::vector<std::string>
tokenize
"; input = getString(); pattern = getPatternstd::string input; std::getline(std::cin
浏览 0
提问于2017-01-18
得票数 2
回答已采纳
2
回答
XQuery中的字符串操作
、
、
这是我的代码: return (
tokenize
($asin/data(.)
浏览 4
提问于2014-05-05
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
智聆口语评测
活动推荐
运营活动
广告
关闭
领券