腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
手动
重置
kafka
偏移量
时,
Flink
偏移量
进入不一致状态
、
我们有一个
flink
流应用程序,从卡夫卡读取消息。由于某些原因,我们不得不从
kafka
重置命令将
kafka
偏移重置为最新,因为有大量堆积。我们希望
flink
应用程序跳过所有这些消息,并从重置后出现的新消息开始。问题是因为
flink
在内部管理它的
偏移量
,它不知道这个重置,它现在只从后向读取msg (重置前的偏移点),现在也不能
提交
偏移量
。因此,每次重启
flink
应用程序时,它都会再次从同一点读取。因此,我们
在
每次重启时
浏览 62
提问于2021-06-19
得票数 4
回答已采纳
2
回答
正确地将
Flink
状态发送给
Kafka
、
、
、
我正在构建一个卡夫卡->
Flink
->卡夫卡管道,它可以处理划定的“会话”数据。实现非常简单--由session_key实现,将start_event存储到ValueState
中
,将条目存储到ListState
中
,然后当end_event到达时,对所有事件运行处理逻辑,并将结果推入输出
Kafka
主题。我应该如何正确地从这件事
中
恢复过来?如果卡夫卡
偏移量
已经被
提交
,并且没有任何end_event将它从卡夫卡
中
为该session_key,我
浏览 7
提问于2022-01-30
得票数 0
回答已采纳
1
回答
无法
在
Flink
新
Kafka
消费者api的检查点上向
Kafka
提交
消费抵消(1.14)
、
在
应用程序非常新的开始时,必须从检查点上卡夫卡主题的最新
偏移量
中
读取,它必须在重启后(当应用程序
手动
/系统错误终止时)将所消耗的
偏移量
提交
给
Kafka
,它必须从上次
提交
的
偏移量
中选择,并且必须使用消费者延迟使用新的KafkaConsumer API (KafkaSource),我面临以下问题 能够执行上述要求,但不能在检查点(500 on )上
提交
所消耗的
偏移量
。而是
在
浏览 10
提问于2021-12-16
得票数 2
1
回答
如何为消费者设置卡夫卡补偿?
、
假设我的主题中已经有10个数据,现在我开始编写
Flink
,消费者将使用第11个数据。 }和pom.xml: <groupId>org.apache.<em
浏览 1
提问于2018-10-31
得票数 2
回答已采纳
2
回答
重新启动时的
Kafka
&
Flink
重复消息
、
、
、
如果我
在
答案
中
遗漏了什么,那么请重新表述答案,因为我显然遗漏了一些东西。 "org.apache.
flink
" %% "
flink
-connector-
kafka
-0.9" % "1.1.2"
浏览 4
提问于2016-09-12
得票数 7
回答已采纳
1
回答
如果我已经将自动
提交
设置为true,那么行为是什么?
我在读书启用检查点:如果启用了检查点,则
Flink
消费者将在检查点完成时
提交
存储
在
检查点状态
中
的
偏移量
。这确保了
Kafka
代理中
提交
的
偏移量
与检查点状态
中
的
偏移量
一致。用户可以通过调用使用者上的setCommitOffsetsOnCheckpoints(布尔值)方法来选择禁用或启用偏移
提交
(默认情况下,行为为真)。请注意,在此场景
中
,属性
中
的自动周期
浏览 0
提问于2021-06-25
得票数 0
回答已采纳
1
回答
Kafka
主题分区缺少
偏移量
。
、
、
我有一个
Flink
流应用程序,它正在消耗来自
Kafka
主题的数据,这个主题有3个分区。尽管应用程序一直在运行和工作,并且没有任何明显的错误,但我看到
flink
应用程序在所有3个分区上的消费者组都出现了滞后。Offset:9561Offset:9563Offset:9565 日志端偏移值为9568,当前
偏移量
为9566.为什么这些补偿
在
控制台使用者
中
不可用,为什么存在这种滞后?例子-
浏览 7
提问于2022-06-17
得票数 1
1
回答
flink
检查点如何帮助故障恢复
、
以下是我的假设:
Flink
从
kafka
消耗一些固定数量的事件(一次从多个分区获得多个
偏移量
),并等待,直到它到达接收器,然后是检查点。
在
成功的情况下,它
提交
kafka
分区,偏移它读取,并维护一些与它正在写入的hdfs文件相关的状态。
在
kafka
将事件交给其他运营商之后,进行了多个转换,而
kafka
消费者则处于闲置状态,直到它得到它发送的事件的成功确认。
在
失败的情况下,
flink
转到以前的检查点状态
浏览 0
提问于2020-03-12
得票数 0
1
回答
在
flink
卡夫卡的生产者和消费者
中
只有一次
、
、
我试图
在
Exactly-Once集成
中
实现
Flink
-
Kafka
语义。我将按照第一个用户提到的
在
使用者端添加一个属性。我是否也应该在生产者端添加Idempotent属性?我的
Flink
版本是1.13.5,Scala 2.11.12和我正在使用
Flink
Kafka
connector 2.11。我认为我无法使用EXACTLY_ONCE
提交
事务,因为检查点不是在上述路径上编写的。附加Web的屏幕截图: 我需要为此设置
浏览 1
提问于2022-01-07
得票数 1
回答已采纳
1
回答
在
Flink
中
手动
提交
Kafka
偏移量
、
在从
Kafka
摄取消息的
Flink
流应用程序
中
,1)如何禁用自动
提交
? 2)
在
成功处理消息后如何从
Flink
手动
提交
? 谢谢。
浏览 138
提问于2019-02-08
得票数 1
1
回答
在
本地执行模式下停止/启动
Kafka
消费者/生产者流
设置: --producer.setLogFa
浏览 3
提问于2017-03-27
得票数 0
1
回答
Flink
Kafka
消费者补偿
在
重新分配工作时被重置为0
、
我遇到的问题是,
在
重新启动
Kafka
和
Flink
作业时,FlinkKafkaConsumer偏移被重置为0,因此数据被重新处理,即使我启用了检查点,并且
在
Flink
作业
中
启用了一次语义。这是我的环境细节
在
KubernetesKafka源主题下运行的有10个分区,没有replication.
Kafka
,有3个代理。启用
Flink
检查点时,semantics.
Flink
版本为1.12
Flink
通过负载
浏览 6
提问于2022-01-25
得票数 0
2
回答
Flink
和SparkStreaming
中
检查点机制的不同
、
、
使用来自
Kafka
主题的数据,
Flink
和SparkStreaming都提供了检查点机制,前提是auto.commit.enabled设置为false。火花博士说:
在
启用了
Flink
的检查点之后,
Flink
Kafka
消费者将使用来自某个主题
浏览 6
提问于2017-12-12
得票数 1
1
回答
Flink
+
Kafka
重置检查点和
偏移量
、
、
、
简而言之,我想从一开始就对
Kafka
中
的数据重新运行
Flink
管道。我尝试过auto.offset.reset = smallest/earliest和更
浏览 0
提问于2016-02-20
得票数 3
2
回答
Flink
不对
kafka
进行抵消
、
、
、
、
我有一个
flink
流媒体工作,是从卡夫卡读取数据,并只是记录它。我启用了检查点。任何帮助都是徒劳无功的。{$
KAFKA
_HOME/bin/
kafka
-consumer-groups.sh --new-consumer --bootstrap-server localhost:9092 --describe--group
flink
-consumer-group Error while executing consumer
浏览 5
提问于2017-02-06
得票数 3
回答已采纳
1
回答
如何在特定doFun执行结束时
在
Apache梁
中
手动
提交
Kafka
偏移量
、
、
我创建了一个简单的Apache光束流管道,它从
Kafka
读取数据,进行一些处理,并通过调用一些外部服务的API来持久化结果。我希望确保
在
管道重启或失败期间不会丢失数据,因此我希望
在
特定doFun执行结束时成功调用接口后,
手动
将记录
偏移量
提交
给
Kafka
。
在
我之前的
Kafka
经验
中
,我知道通过使用
Kafka
Consumer的below接口,我可以
手动
将记录
偏移量
<
浏览 10
提问于2021-09-21
得票数 1
回答已采纳
1
回答
Apache流应用程序不会从检查点开始停止并启动
、
、
、
下面的
Flink
流应用程序
在
本地运行,使用SQL编写: val targetPath = f"file://${new java.io.File(".").getCanonicalPath}/
kafka
-to-fs-csvBIGINT METAD
浏览 5
提问于2022-03-14
得票数 0
回答已采纳
1
回答
一份
Flink
工作什么时候可以从卡夫卡那里消费?
、
、
我们有一个
Flink
作业,它具有以下拓扑结构:我们
在
接收器操作符open-override函数
中
设置了一个活动(就绪)状态。
浏览 4
提问于2022-09-19
得票数 0
回答已采纳
1
回答
如何在
Flink
中
手动
提交
Kafka
偏移量
、
我有一个
Flink
作业来消费一个
Kafka
主题,并将其沉没到另一个主题,
Flink
作业设置为auto.commit,间隔为3分钟(检查点禁用),但在监控端,有3分钟的延迟。但我们希望
在
没有3分钟延迟的情况下实时监控处理,因此我们希望有一个功能,即FlinkKafkaConsumer能够
在
接收函数后立即
提交
偏移量
。 有没有办法
在
Flink
框架
中
实现这个目标?
在
第53行,我试图创建一个KafkaCons
浏览 0
提问于2020-12-29
得票数 0
1
回答
Flink
Kafka
源异步自动
提交
补偿失败
Flink
版本: v1.15.2I有一个应用程序,它是卡夫卡的使用者,它使用使用者组'TopicA‘使用主题'topic_a'
中
的数据。有一个
Flink
任务,其卡夫卡源表使用的卡夫卡消费者组也是“TopicA”,但使用的是主题“topic_b”的数据 此时,
浏览 10
提问于2022-09-23
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Flink在AI流程中的应用
第十篇|SparkStreaming手动维护Kafka Offset的几种方式
大数据时代,Kafka生产者如何调优?这6个秘诀让你事半功倍!
当Flink遇到Kafka-FlinkKafkaConsumer使用详解
如何使用flink-connector-postgres-cdc将Kafka写数据到PostgreSQL数据库动态表中
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券