首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何限制上传到ElasticSearch的数据量

如何限制上传到ElasticSearch的数据量
EN

Stack Overflow用户
提问于 2021-02-04 19:11:32
回答 1查看 58关注 0票数 0

如何限制上传到Elasticsearch的数据量?我的旧笔记本电脑不能处理像我正在使用的那样的大型数据集。

我使用了以下代码来“限制”要上传的数据

代码语言:javascript
运行
复制
from elasticsearch import helpers, Elasticsearch
import csv
import itertools

with open('my_data.csv', encoding="utf8") as f:
    reader = csv.DictReader(f)
    for row in itertools.islice(reader, 1000): #limitation of data
        helpers.bulk(es, reader, index='movie-plots', doc_type=None)

但这显然是不起作用的;当我检查'POST movie-plots/_count‘时,它返回整个数据集的初始大小。

我对Elasticsearch完全是个新手,所以如果这是一个新手问题,我很抱歉。为了使用Elasticsearch和Kibana,我使用Python客户端(在Jupyter notebook中)。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-02-04 20:36:38

您正在调用reader上的islice ...但是不管怎样,你都是把所有的reader都传递给了helpers.bulk

不是在我可以测试的地方;但是尝试删除for循环,直接将islice传递给helpers.bulk

代码语言:javascript
运行
复制
with open('my_data.csv', encoding="utf8") as f:
    reader = csv.DictReader(f)
    helpers.bulk(es, itertools.islice(reader, 1000), index='movie-plots', doc_type=None)
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/66044452

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档