腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
处理
海量
数据
、
让我们假设我有一个大文件(500GB+),并且我有一个
数据
记录声明Sample,它表示该文件中
的
一行:field1 :: Int,那么,什么
数据
结构适合于在这些Sample
数据
的
集合上
处理
(filter/map/折叠)?我
的
问题是,如何将它表示为Vector类型来解决问题?是否将文件内容表示为Sample类型
的
向量也将占用大约500 as? 解决这类问题
浏览 1
提问于2014-06-20
得票数 2
回答已采纳
1
回答
处理
海量
数据
我正在开发一个在一些系统上做DB交互
的
接口。作为我工作
的
一部分,我应该查询源
数据
库,调用一些过程,获取引用游标中
的
数据
,并填充目标
数据
库。由于
数据
量可能很大,因此我在目标
数据
库上使用多线程来调用该过程。对于ex,如果应该加载
的
条目总数是100万,那么在目的地db上,该过程被调用例如10次,每个具有100K个记录。这种布置工作得很好,除非源db处
的
数据
量很大(例如超过200万个条目)。我已经设置了大约
浏览 2
提问于2013-03-12
得票数 0
回答已采纳
2
回答
用于大规模
数据
处理
的
标准C++库
、
您能告诉我一些用于
处理
大规模
数据
的
C++标准库吗?例如,
处理
海量
数据
的
自然语言
处理
,蛋白质相互作用
的
数据
集等。 最佳,Thetna
浏览 0
提问于2011-10-30
得票数 7
回答已采纳
1
回答
处理
海量
报表
数据
、
、
、
我有一个报告系统,我需要组合来自3个不同服务器(系统)
的
数据
,将其显示给用户。这在有几千条记录
的
情况下工作得很好,但随着它
的
增加,系统超时。 我在考虑使用另一种方法。当用户运行结果时,我将生成一个请求,以生成报告到
数据
库。正在运行
的
守护程序将拾取它,收集
数据
并生成报告,并通过电子邮件向用户发送报告
数据
的
链接。我可以在这里做很多事情。1)将采集到
的
数据
以表格
的
形式插入到
数据<
浏览 3
提问于2012-08-30
得票数 0
回答已采纳
1
回答
数据
摄取-使用并发进行大规模并行
处理
、
、
、
我正在寻找一个具有并发
的
大规模并行
处理
系统,它可以为每500毫秒100多万台IoT设备提供无缝
的
数据
摄取解决方案。寻找开源
的
、高度可扩展
的
、不同协议
的
丰富
的
库,支持ESB,并且可以无故障地管理多线程。 是阿帕奇光束,阿帕奇Nifi或阿帕奇骆驼或WSO2更好
的
选择。
浏览 2
提问于2018-07-30
得票数 0
10
回答
使用Java
处理
海量
数据
、
作为需求
的
一部分,我们需要
处理
近300万条记录,并将它们与一个存储桶相关联。这种关联是由一组规则(由5-15个属性组成,具有单个或范围
的
值和优先级)决定
的
,这些规则派生出记录
的
存储桶。对如此大
的
数字进行顺序
处理
显然超出了范围。有人可以指导我们有效地设计解决方案
的
方法吗?
浏览 0
提问于2009-06-12
得票数 3
回答已采纳
2
回答
通过jquery
处理
海量
数据
、
、
但我不确定在出现大量帖子
的
情况下,它是否能正常工作,因为上一次我在使用jquery发布大量
数据
时遇到了问题。json对象在50000个字符后被Firebug截断,指出 我注意到,即使是在一个普通
的
帖子中,字符数也会超过50K。有没有办法解决这个“请求大小限制”,或者“使用jquery传递如此庞大
的
数据
是个坏主意”。请给我建议。谢谢
浏览 7
提问于2012-05-07
得票数 1
回答已采纳
1
回答
使用arraylist
处理
海量
数据
、
我有一个用java写
的
作业问题。最好
的
情况是所有的单词都是一样
的
。所以我将显示没有出现单词,但考虑到最坏
的
情况,比如文件中出现
的
单词是唯一
的
。所以我需要显示所有出现次数为1
的
单词。 如何
处理
如此庞大
的
数据
列表?我们对此有什么解决
浏览 0
提问于2013-03-04
得票数 0
2
回答
MySQL
海量
数据
操作
处理
、
、
、
我在
处理
数据
库中
的
大
数据
时遇到了以下问题: 基本上,每一秒来自数字传感器
的
所有测量
数据
都存储在
数据
库中。报告应该从所有
数据
中仅显示发生
的
更改,例如在时间X时,寄存器#1
的
值从0更改为1。我已经创建了一个过程,它可以只返回我需要
的
数据
(更改),这节省了我在php中
的
大量
处理
,但最大
的
问题是,对于4天的当前
数据
,查
浏览 1
提问于2012-09-14
得票数 1
回答已采纳
2
回答
低耦合
处理
海量
数据
、
、
、
、
通常,我通过在它们之间创建交换列表、集合和映射
的
类来实现低耦合。现在,我正在开发一个Java批
处理
应用程序,由于内存不足,我无法将所有
数据
放入
数据
结构中。我必须读取和
处理
一大块
数据
,然后再转到下一个
数据
。因此,低耦合要困难得多,因为我必须在某个地方检查是否还有
数据
可读,等等。我现在用
的
是:如果有更多行要读取,则
处理
的
类必须向Source类询问。 在这种情况下,最
浏览 0
提问于2012-04-09
得票数 8
回答已采纳
1
回答
如何使用laravel和data table加载500万左右
的
海量
数据
?另外,我在服务器端
处理
分页时遇到了一个问题
、
、
如何使用laravel和data table加载500万左右
的
海量
数据
?另外,我在服务器端
处理
分页时遇到了一个问题
浏览 28
提问于2020-05-02
得票数 0
1
回答
在python中加速指数移动平均
、
我发现pandas ewm在
处理
海量
数据
时运行非常慢。有没有办法加快速度,或者对指数加权移动平均使用替代函数?
浏览 16
提问于2017-03-08
得票数 0
回答已采纳
1
回答
NoSQL值得使用
、
、
最近我遇到了NoSQL
的
概念,据我所知,它适用于
处理
海量
数据
。 我
的
问题是,我们使用NoSQL变得值得
的
限制是什么?它只适用于
处理
大量
数据
的
公司,如Google、Facebook等,或者即使
数据
量较小,也值得从SQL
数据
库切换到它。
浏览 1
提问于2012-09-11
得票数 1
回答已采纳
1
回答
大规模ORM与继承
、
、
微观ORM“
海量
”是否有
处理
继承
的
方法? 我需要一些与Server非常接近
的
东西。作为第一步,最好只是拦截
海量
生成
的
SQL,然后将其放入我所选择
的
数据
库中。这样做可能会产生预期
的
遗传效果: class BabyProducts : Products {...}注:这个项目(受大规模项目启发)可能
浏览 1
提问于2011-10-29
得票数 3
回答已采纳
1
回答
使用Kafka
处理
海量
数据
我有三个节点
的
kafka集群。我向kafka主题产生了1个分区和3个复制因子
的
消息。如果我
的
消费者工作得比生产者慢得多,会发生什么?我应该检查哪些参数才能保证零
数据
丢失?? 谢谢!
浏览 25
提问于2020-08-22
得票数 0
回答已采纳
3
回答
将200万条记录插入到salesforce中
的
Account对象
的
最佳方法是什么
、
、
我们已经使用了Apex data Loader来插入/删除记录,但是当
处理
海量
数据
时需要花费更多
的
时间。 你能让我们有其他
的
方法来实现这一点吗?
浏览 2
提问于2011-04-18
得票数 1
1
回答
线图
数据
处理
问题
、
、
、
、
在API中
处理
行图
数据
的
最佳方法是什么? 我厌倦了正常
的
X,Y值,但是每个类别都有大量
数据
,所以很难
处理
。我
的
问题是我应该从服务器获得哪些
数据
,所以我将很容易地显示这些
海量
数据
。
浏览 9
提问于2022-03-31
得票数 0
1
回答
处理
大量
数据
、
、
、
因此,我正在使用参数化能量模拟,并最终得到存储在.CSV文件中
的
数据
的
500GB+。我需要能够
处理
所有这些
数据
来比较结果,并深入了解不同参数
的
影响。每个csv文件名都包含用于模拟
的
参数信息,因此我无法合并这些文件。 我通常使用pandas并定义一个类将.csv文件加载到python中。但是现在(有了所有这些
数据
)没有足够
的
内存来做这件事。你能告诉我一种
处理
这些
数据
的
方法吗?我需要能
浏览 3
提问于2016-10-01
得票数 0
1
回答
处理
固定
数据
表中
的
大量
数据
、
我正在尝试在我
的
Web应用程序中使用固定
数据
表,我正在
处理
大量
的
数据
,比如数十万条记录。我正在尝试一次加载所有
数据
,以最大限度地利用data Table
的
搜索和排序功能。是我正在使用
的
数据
表
的
链接。 如何
处理
功能齐全
的
数据
表中
的
海量
数据
?
浏览 0
提问于2017-01-10
得票数 1
3
回答
将
海量
数据
索引到Elasticsearch中
我是elasticsearch
的
新手,并且拥有巨大
的
数据
( mysql表中超过16k
的
大行)。我需要将此
数据
推送到elasticsearch中,但在将其编入索引时遇到问题。有没有办法让索引
数据
更快?如何
处理
海量
数据
?
浏览 1
提问于2012-05-21
得票数 6
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
滴滴处理海量数据的秘诀是什么?
基于 TiSpark 的海量数据批量处理技术
处理海量数据的10种常见方法
海量涉税数据的11项处理技巧
千亿计设备产生海量采集数据,如何处理?看看它的处理方式!
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券