腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3460)
视频
沙龙
1
回答
kafka
max.poll.records不适用于火花流。
、
、
、
我的火花流版本是2.0,
kafka
版本是0.10.0.1,火花流-
kafka
-0-10_2.11。我使用直接的方式获得卡夫卡的记录,我现在想限制我在一批中获得的信息的最大数量。星星之火中的消费者数量是卡夫卡中的
分区
数?那么火花流中记录的最大数量是max.poll.records*consumers?
浏览 1
提问于2018-09-27
得票数 2
1
回答
Spark
Structred
Streaming
Kafka
-如何从主题的特定
分区
读取
并进行偏移量管理
、
、
我对
spark
结构化
数据
流和
kafka
的偏移管理是新的。使用
spark
-
streaming
-
kafka
-0-10-2.11。在消费者中,我如何从主题的特定
分区
中
读取
?comapany_df = sparkSession .format("
kafka
").option("
kafka</
浏览 22
提问于2019-05-29
得票数 0
2
回答
Spark
Streaming
:
Kafka
重启后输入速率不正常
、
我目前正在
spark
上运行一个流媒体应用程序,它使用新的直接方法(没有接收器)消费一个简单的
kafka
主题。由于我们在
Kafka
集群上遇到了一些问题,即使在
Kafka
上恢复正常后,流媒体应用程序也遇到了一些问题:一些作业正在处理几乎空的rdd,而另一些作业正在处理两倍大小的rdd。我在
Kafka
和
Spark
两边都没有发现任何堆栈或线索。 有人能告诉我如何解决这类问题吗?或者至少到哪里去看一看,以了解发生了什么?
浏览 0
提问于2016-05-18
得票数 0
2
回答
如何从星火流DirectAPI中的每个
Kafka
分区
中并发
读取
、
、
、
、
如果我是正确的,默认情况下,星火流1.6.1使用单个线程从每个
Kafka
分区
读取
数据
,假设我的
Kafka
主题
分区
为50,这意味着每个50个
分区
中的消息将按顺序
读取
或可能以循环方式
读取
。案例1:e.g.._2)-If --我的卡夫卡
分区
每秒
浏览 4
提问于2016-12-12
得票数 2
2
回答
spark
流中奇怪的延迟
、
、
、
、
我最近一直在使用
spark
streaming
来处理
kafka
中的
数据
。大多数情况下,
数据
处理在1-5秒内完成。然而,在几个批次之后,它连续花费了41 ~ 45秒,并且大部分延迟发生在从stage0获取
数据
的区域。我意外地发现
Kafka
的request.timemout.ms默认设置为40秒,并将此设置更改为10秒。实际处理时间为1-5秒。<em
浏览 2
提问于2017-01-18
得票数 4
2
回答
spark
streaming
和
kafka
,增加
spark
来自
kafka
的消息数量
、
我向
Kafka
发送消息,我希望在其他应用程序中通过
spark
streaming
接收这些消息,但
Spark
接收的消息速率约为40,000。我想增加
Spark
每个间隔接收的消息数,我该怎么做呢?
浏览 0
提问于2017-03-11
得票数 1
1
回答
Kafka
-
Spark
Streaming
-
仅从
1个
分区
读取
数据
、
我有一个独立的
spark
集群,正在从
kafka
队列中
读取
数据
。
kafka
队列有5个
分区
,
spark
只处理其中一个
分区
的
数据
。> <version>2.0.2</versi
浏览 2
提问于2017-02-27
得票数 3
回答已采纳
2
回答
每批大小的火花流调整记录的数量不起作用?
、
、
我的星火流应用程序是从卡夫卡
读取
使用DStream方法,我试图获得批量大小,以处理60,000条消息在10秒内。我所做的, 在纱线模式下运行,有2个执行器(4个芯,3个
浏览 0
提问于2019-07-08
得票数 2
回答已采纳
1
回答
火花流
spark
.
streaming
.backpressure.pid.minRate是每个
分区
还是每个批处理间隔的总消息?
、
、
我有火花流应用程序从
Kafka
读取
消息使用火花直接流(非接收者)方法和处理每个
分区
的消息。在我的
Kafka
分区
中,有时我们得到处理2000条消息需要20秒的消息,而对于相同的no,有些消息需要7-9秒。信息的传递。
spark
.
streaming
.
kafka
.maxRatePerPartition=200
spark</em
浏览 2
提问于2017-01-20
得票数 3
2
回答
在阅读多
分区
的
kafka
主题时,星火结构的流媒体使用者是如何发起和调用的?
、
、
、
如果一个kakfa主题在java中有多个
分区
,那么这许多使用者实例/线程将在使用者端实例化。 如何在火花缭乱的消费端处理它呢?我找不到很多关于同样的信息。
浏览 1
提问于2019-06-10
得票数 0
1
回答
如何在从
Kafka
中
读取
时异步进行
spark
流
、
我有一个
Kafka
分区
和一个sparkStreaming应用程序。一台具有10核的服务器。当
spark
streaming
从
Kafka
得到一条消息时,后续过程将需要5秒(这是我的代码)。所以我发现sparkStreaming
读取
Kafka
消息非常慢,我猜当
spark
读出一条消息时,它会一直等到消息被处理,所以
读取
和处理是同步的。我想知道我可以让
spark
异步
读取
吗?因此,
Kafka
浏览 0
提问于2015-09-06
得票数 1
2
回答
如何使用direct stream在
Kafka
Spark
Streaming
中指定消费群
、
、
、
、
如何使用直播流API指定
kafka
spark
流的消费组id。使用
spark
1.3 kafkaParams.put("group.id", "app1");
浏览 0
提问于2016-04-09
得票数 7
回答已采纳
1
回答
spark
streaming
中限制
Kafka
消费
数据
、
、
Spark
从
kafka
获取
数据
。我想通过
spark
-
streaming
限制记录消耗。关于卡夫卡的
数据
非常庞大。我使用
spark
.
streaming
.
kafka
.maxRatePerPartition=1属性来限制
spark
中的记录。但是仍然在5分钟内,我收到了13400条消息。我的
spark
程序每5分钟不能处理超过1000条消息。
Kafka
topic有3个
分区
。
浏览 17
提问于2018-02-06
得票数 0
3
回答
使用
Spark
Streaming
时限制
Kafka
批量大小
、
、
、
是否可以限制
Kafka
消费者返回
Spark
Streaming
的批量大小? 我之所以问这个问题,是因为我得到的第一批记录有上亿条记录,需要很长时间才能处理和设置检查点。
浏览 0
提问于2016-10-11
得票数 18
回答已采纳
3
回答
如何在星火流应用程序中使用
Kafka
主题?
、
、
、
当我从
Kafka
主题创建一个流并打印它的内容时 os.environ['PYSPARK_SUBMIT_ARGS'] = '--packages org.apache.
spark
:
spark
-
streaming
-
kafka
-0-8_2.11:2.0.2 pyspark-shell' from pyspark.
streaming
impo
浏览 2
提问于2019-12-08
得票数 1
回答已采纳
0
回答
Spark
Streaming
kafka
concurrentModificationException
、
、
、
我使用的是
Spark
流媒体应用程序。应用程序使用直接流从
Kafka
topic (具有200个
分区
)中
读取
消息。:1361)at org.
浏览 1
提问于2017-12-03
得票数 2
回答已采纳
1
回答
Spark
Direct Stream没有为每个
kafka
分区
创建并行流
、
我们在集成
Spark
-
Kafka
streams时遇到了性能问题。项目设置:我们使用3个
分区
的
Kafka
主题,每个
分区
产生3000条消息,并在
Spark
direct
streaming
中进行处理。我们面临的问题是:在处理端,我们使用
Spark
直接流方法来处理相同的内容。如以下文档所示。
Spark
应该创建与主题中的
分区
数量相同的并行直接流(在本例中为3)。但是在
读取
时,我们可以看到来自
分区<
浏览 3
提问于2016-12-08
得票数 5
1
回答
应用服务器日志进程
、
、
、
、
Clint希望从这些具有不同参数的
数据
中生成“访问”和“频率”报告。我最初的计划是使用
kafka
从应用服务器日志中获取这些
数据
-->使用
kafka
推送到
Spark
Streaming
并处理这些
数据
-->将这些
数据
存储到HIVE -->使用zeppelin来获取那些经过处理和集中的日志
数据
但是据我所知,
Kafka
没有任何功能可以
读取
日志文件中的
数据
,并将它们发布在<
浏览 31
提问于2017-07-24
得票数 0
1
回答
Spark
2应用程序失败,无法找到错误的引线偏移
、
我有我的
spark
应用程序,从
Kafka
读取
数据
并摄取到Kudu。它已经成功运行了近25个小时,并将
数据
摄入到了Kudu中。在那之后,我看到从
kafka
日志中选出了新的
kafka
分区
的领导者。我的应用程序进入完成状态,并出现以下错误 org.apache.
spark
.SparkException: ArrayBuffer(
kafka
.common.NotLeaderForPartitionException, org
浏览 20
提问于2018-02-13
得票数 0
1
回答
Spark
Streaming
CPU利用率低
、
在我的
Spark
Streaming
作业中,CPU未得到充分利用(仅5-10%)。 它从
Kafka
获取
数据
并发送到DynomoDB或thridparty端点。
浏览 1
提问于2017-03-18
得票数 0
点击加载更多
相关
资讯
关于Spark Streaming感知kafka动态分区的问题
使用Spark Streaming处理Kafka数据流
Spark Streaming与Kafka如何保证数据零丢失
Spark Streaming如何读Kafka数据 Hbase如何设计表
基于Spark Streaming实时处理Kafka数据流
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券