腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
Hadoop
和
分析
?
、
我正在构建一个完整
的
“横向扩展”解决方案,为我们
的
客户提供深入
的
实时
分析
。我希望每个会话长达4分钟,并在4分钟内触发大约20个事件。我会记录开始日期、结束日期,以及会话期间
的
一些计数器(例如点击数)。这大约是每秒8000次插入。我考虑过
Hadoop</em
浏览 3
提问于2011-11-21
得票数 2
2
回答
hadoop
中
的
分析
实现
、
、
目前,我们已经有了
基于
mysql
的
分析
。我们每隔15分钟读取
日志
,对其进行处理并添加到mysql数据库中。随着我们
的
数据不断增长(在一种情况下,到目前为止增加了900万行&每月增加50万行),我们计划将
分析
转移到无sql数据库。根据我
的
研究,
Hadoop
似乎更适合我们处理
日志
&它可以处理非常大
的
数据集。 然而,如果我能从专家那里得到一些建议,那就太好了。
浏览 0
提问于2014-04-12
得票数 0
2
回答
将大
日志
存储在MongoDB或
Hadoop
中进行
分析
与将Zip文件存储在文件服务器上相比有什么优势?
、
、
、
目前,我们存储了大量
的
日志
(30g/天
的
x3机器= av。100G)
的
文件服务器。
日志
已压缩。搜索
日志
实际工具是搜索相应
的
日志
(根据timerange),将它们复制到本地,解压缩,然后在xml中搜索信息和显示。我们正在研究制作一个类似spunk
的
工具来搜索
日志
的
可能性(它是消息总线
的
输出:xml-发送到其他系统
的
消息)。 依赖于一个类似mongo
浏览 0
提问于2013-01-25
得票数 2
回答已采纳
2
回答
分布式、错误处理、TB级数据拷贝
、
、
、
我们有一个盒子,每天有to
的
数据(10-20TB),驱动器上
的
每个文件都在to到to
的
任何地方。 我们希望将所有这些文件发送到一组“披萨盒”,在那里他们将消费和处理这些文件。除了distcp (
hadoop
)之外,我似乎找不到任何构建来处理如此大量
的
数据
的
东西。Robocopy/etc不能这样做。有谁知道一个解决方案,可以处理这种类型
的
委托(在披萨盒之间分担工作),并具有可靠
的
文件传输?
浏览 1
提问于2010-10-06
得票数 1
1
回答
如何使用nodejs创建
日志
收集服务?
、
我需要建立一个
日志
收集系统。1、作为前端开发人员,我是否可以花费一定
的
时间(例如,一周)来完成简单
的
构建而不需要服务端
的
基础?2、我可以使用nodejs、mongodb和其他技术栈来构建
日志
系统吗?
浏览 4
提问于2022-09-05
得票数 0
回答已采纳
1
回答
Hadoop
日志
文件
分析
、
它可以部署在
Hadoop
上,其目的如下:大部分地图减少了阿尔戈。在
日志
文件来自不同来源(Tux、Webs
浏览 0
提问于2012-06-15
得票数 0
回答已采纳
1
回答
Hadoop
配置文件输出-在哪里?什么?
、
、
我正在尝试
分析
我
的
应用程序,看看我是否可以重现。我将-D mapred.task.profile=true添加到命令行中,并签入了所需
的
作业配置。
Hadoop<
浏览 1
提问于2013-05-08
得票数 6
1
回答
如何利用
Hadoop
实时处理Postgres数据库?
、
、
我有一个Postgres数据库,用于生产服务器,需要定期使用
Hadoop
进行
分析
。在
Hadoop
中进行
的
每一个查询都应该
基于
Postges数据库中可能
的
最新版本。不同步是可以接受
的
,但只能延迟几分钟。 如何在
Hadoop
中进行近乎实时
的
数据
分析
?
浏览 4
提问于2015-05-19
得票数 2
回答已采纳
1
回答
如何创建内部漏斗
分析
?
、
、
、
、
我想建立内部漏斗
分析
基础设施。所有用户活动提要信息都将写入所选择
的
数据库/ DW,然后,当我动态定义漏斗时,我希望能够为漏斗中
的
每个阶段选择会话计数。 我在任何地方都找不到创造这种东西
的
例子。有些人说我应该使用
Hadoop
和MapReduce来实现这一点,但是我在网上找不到任何例子。
浏览 1
提问于2014-01-31
得票数 1
回答已采纳
1
回答
我们如何处理
Hadoop
DB中处理过
的
数据(输出)?
、
、
我是
Hadoop
的
新手,如果我
的
问题太不成熟,我深表歉意。但是,在
基于
Hadoop
的
数据库中是如何工作
的
呢?在客户端,如果请求特定
的<
浏览 2
提问于2015-12-23
得票数 0
2
回答
应用洞察
日志
分析
、
、
、
、
我有应用程序洞察
的
事件
日志
,其中事件被记录并作为json存储在存储在blob存储中
的
文本文件中。我需要找到符合标准
的
customProperty。点击次数非常少(约10或20),但是记录
的
数据非常大。我在微软
的
文档中读到,HDInsights理解blob存储,而且效率很高。这与我
的
设想有关系吗?如果是的话,谁能提供一些起点。
浏览 7
提问于2016-06-10
得票数 0
回答已采纳
2
回答
hadoop
如何帮助用户跟踪数据?
、
、
我想知道
hadoop
如何帮助用户数据跟踪。例如,我有一个电子商务应用程序,我希望记录客户执行
的
每一个活动,例如查看项、添加到购物车或购买项目。是否有使用
hadoop
记录事件
的
示例或最佳实践。我之所以想使用
hadoop
,是因为它
的
高可用性和可伸缩性,而且记录
的
数据也将从GBs增长到TBs。还是我错了?因为
日志
记录应该独立于
hadoop
,以后对
日志
数据
的
分析
可以用
hadoop<
浏览 3
提问于2014-04-11
得票数 1
回答已采纳
2
回答
Hadoop
-
分析
日志
文件(Java)
、
、
日志
文件如下所示:--此
日志
中
的
具体示例: User1234有一个reminder --这个reminder有一个id=131235467,在此之后,他用以下data创建了一个order:在这个例子中,{items:[是相同
的
,所以我想总结一下<code>d15<//code>*amount -&
浏览 4
提问于2013-03-11
得票数 6
1
回答
我需要一个工具来
分析
日志
Hadoop
、
、
、
、
我有来自
Hadoop
的
日志
文件,我想
分析
这些大文件以生成报告,所以我正在寻找一个方便
的
工具来
分析
这些文件。请介绍用于
分析
这些文件
的
工具。
浏览 16
提问于2016-08-13
得票数 0
2
回答
跨多个节点
的
日志
的
Hadoop
句柄
、
我有十个服务器,每个服务器每天都会产生大约3G
日志
文件。我已经完成了
hadoop
教程,并在每台机器上安装了每个
hadoop
(HDFS)。我想要使用map-reduce来
分析
这些
日志
。我
的
问题是如何在
hadoop
中启用MP
的
每日
日志
?目前,对于服务器A,我手动将
日志
文件复制到HDFS目录: >
hadoop
fs -put local_log_path /A/log_20
浏览 28
提问于2017-02-20
得票数 0
回答已采纳
2
回答
Hadoop
日志
记录和报告
、
、
、
我们可以只使用
Hadoop
进行
日志
记录,还是只使用
Hadoop
进行报告?因此,我可以尝试不同
的
东西,比如使用脚本进行
日志
记录和使用
Hadoop
进行报告。
浏览 3
提问于2011-12-05
得票数 0
2
回答
如果已经使用
Hadoop
,那么HBase还是Mongo用于
分析
DB?
、
、
、
我现在有一个
Hadoop
集群,在这里我存储了大量
的
日志
,我在其中运行用于计算聚合
分析
的
猪脚本。我还拥有一个Mongo集群,在这里存储生产数据。我最近被安置在一个职位上,我需要做很多一次性
的
分析
查询,或者让其他人也能做。这些查询经常需要同时使用生产数据和
日志
数据,因此无论我使用什么,我都希望将所有内容放在一个地方。我
的
日志
数据在json中,大约是我
的
prod数据
的
10倍。HBase
浏览 4
提问于2013-05-15
得票数 2
2
回答
在本地模拟集群
的
Hadoop
框架
有没有可以在Linux或Windows机器上本地模拟完整集群
的
Hadoop
框架?DFS可以在本地复制数据,而计算层将进行并行执行?有没有这样或类似的框架?
浏览 3
提问于2011-11-28
得票数 1
回答已采纳
1
回答
Ctrl+C后纱线+ Sqoop =粘合接受
、
、
我是
Hadoop
的
新手,我用一个节点执行POC。这是第二次发生这种情况,而且不知道如何解决。资源管理器进行了相应
的
配置(10 is内存,2核),但不知道会发生什么。[root@
hadoop
01 /]#
hadoop
versionSubversion git@github.com:hortonworks/
hadoop
.git/
hadoop
-common-2.6.0.2.
浏览 1
提问于2015-07-15
得票数 0
回答已采纳
3
回答
实施大规模
日志
文件
分析
、
、
、
有没有人能给我一个参考资料,或者提供一个像Facebook,Yahoo,Google等这样
的
公司是如何执行大规模(例如数TB范围)
日志
分析
的
,这些公司是如何进行运营
分析
的
,特别是web
分析
?特别关注web
分析
,我对两个密切相关
的
方面感兴趣:查询性能和数据存储。 我知道一般
的
方法是使用map reduce将每个查询分布在一个集群上(例如使用
Hadoop
)。但是,最有效
的
存储格式是什么
浏览 3
提问于2009-04-27
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
大数据平台搭建:基于Hadoop的数据分析平台
深度学习在基于日志分析的系统异常检测中的应用
基于Flume的日志采集
如何基于 Apache Doris 构建新一代日志分析平台
基于 filebeat 的容器日志采集方案
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券