腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Kafka
-
两个
特定
事件
之间
的
窗口
、
我想执行
两个
具体
事件
之间
发生
的
不同
事件
的
操作(例如聚合)。例如,用户点击按钮'A‘,点击按钮'B’后
的
一段时间,我想统计在这段时间内有多少
事件
(来自其他主题)已经到达。我在我
的
应用程序中面临
的
一般概念是,我
的
事件
具有持续时间,它们不是在给定时间独立发生
的
单个
事件
。在这个例子中,点击按钮'A‘将是
事件
浏览 29
提问于2020-11-09
得票数 0
1
回答
Apache Flink -如何在启动时跳过除最新
窗口
之外
的
所有
窗口
在Flink中,我有一个带有键控
事件
流
的
Job (例如:每个键平均每天有10个
事件
)。它们被处理为基于
事件
时间
的
滑动
窗口
(例如:90天
窗口
大小和1天
窗口
滑动)。
事件
是从
Kafka
消费
的
,
Kafka
会持久化所有的
事件
历史(例如:最近3年)。 有时我想重新启动Flink:用于维护、bug处理等,或者使用已经包含
事件
历史
的
Ka
浏览 9
提问于2019-06-05
得票数 0
回答已采纳
1
回答
Google如何确定各种来源
的
水印?
、
、
我只是回顾了,以了解Google是如何处理水印
的
,它只是提到了非常模糊
的
内容: 我发现了一些东西,表明如果你
的
来源是谷歌PubSub,它已经有一个水印将被提取,但如果源是其他东西呢?例如,一个卡夫卡主题(我认为它本质上没有水印,所以我看不出像这样
的
东西会如何应用)。它是在最后几分钟确定最大滞后,如果是的话,有多少(肯定不会永远如此,因为这将被最初<em
浏览 6
提问于2022-05-25
得票数 0
1
回答
flink检查点如何帮助故障恢复
、
我们有平均300万/分钟
事件
的
kafka
输入,高峰时间大约2000万/分钟
的
事件
。检查点持续时间和
两个
检查点
之间
的
最小停顿是3分钟,我使用
的
是FsStateBackend。以下是我
的
假设: Flink从
kafka
消耗一些固定数量
的
事件
(一次从多个分区获得多个偏移量),并等待,直到它到达接收器,然后是检查点。在成功
的
情况下,它提
浏览 0
提问于2020-03-12
得票数 0
1
回答
Debezium能确保同一事务中
的
所有
事件
同时发布吗?
、
我开始探索使用变更数据捕获将遗留和商业应用程序(我不能修改)中
的
数据库变更转换为其他系统可以使用
的
事件
。简化我
的
实际案例,假设将涉及
两个
表,一个是包含订单头详细信息
的
order,另一个是包含所请求
的
每个产品
的
详细信息
的
order_line。我目前
的
理解是,这
两个
表中
的
事件
将发布到
两个
不同
的
kafka
主题中,我应
浏览 2
提问于2020-02-27
得票数 1
2
回答
SlidingEventTimeWindows不产生任何输出。
、
、
anomaly.setValue(1.0); }但是,由于某种原因,SlidingEventTimeWindows不产生任何要由AnomalyDetector处理
的
输出例如,如果我使用TumblingEventTimeWindows,它就像预期
的
那样工作。 有什么原因吗?我是不是不正确地使用SlidingEventTimeWindows?
浏览 1
提问于2021-06-16
得票数 1
回答已采纳
1
回答
卡夫卡流相依对象
之间
的
排序
、
我正在读取来自表示依赖实体
的
RestfulAPI
的
数据。例如,我从/students获得学生对象,从/teachers获得教师对象。学生被连接到教师对象(学生有教师Id)。问题是,我从/students到
Kafka
制作了学生话题,从/teachers到教师主题,但是当我试图用
Kafka
流连接他们
之间
时,有时学生
事件
发生在教师
事件
到来之前,因此我没有收到学生和教师
的
联合记录(由于早期到达
的
学生)。
浏览 0
提问于2018-03-14
得票数 1
1
回答
卡夫卡流在处理时间
窗口
中
的
排序
、
、
我想知道是否有任何方法可以使用
Kafka
流、DSL或处理器API对
窗口
中
的
记录进行排序。
特定
用户
的
所有单击总是在同一个分区中,但顺序不受保护,因为最初
的
主题有10个分区。我理解
Kafka
流
的
窗口
模型,当新记录出现时,时间会提前,但我需要这个
窗口
使用处理时间,而不是
事件
时间,然后当
窗口
过期时,我需要能够对缓冲
事件
进行排序,并按照这个顺序将它们发送到另一个主题。注意:
浏览 2
提问于2018-03-13
得票数 7
2
回答
不触发翻转
窗口
(没有水印策略)
、
、
、
、
问题陈述:流
事件
来自卡夫卡源。这些
事件
有效负载是字符串格式
的
。将它们解析为文档,并根据
事件
时间每5秒将它们插入DB。flink版本: 1.15.0 下面是我
的
主要方法
的
代码。我该怎么解决这个问题?KafkaConfig kafkaConfig = Utils.getAppConfig().getKafkaConfig();
浏览 6
提问于2022-05-18
得票数 0
1
回答
Apache beam中使用coGroupByKey
的
消费者侧行为
我有一个光束作业,读取
两个
卡夫卡制作者
的
数据,并在
两个
流中使用公用键进行连接。我不使用
kafka
使用
的
分区键来进行连接。因此,从本质上说,
kafka
通过
两个
流中
的
某个键对数据进行分区,我
的
使用者/beam作业使用这
两个
流中
的
数据,并提取实际
的
键,我希望使用这个键将连接执行到pCollection中,然后运行coGroupByKey我看到几个
事件
都会发生连
浏览 7
提问于2022-02-18
得票数 0
回答已采纳
1
回答
卡夫卡与流口水
的
整合
、
、
我在设计一个系统,需要: 使用使用
kafka
发布
的
事件
,使用基于规则
的
引擎在卡夫卡上发布一些规则,当规则匹配时,在卡夫卡上发布一些
事件
。为了做一个简单
的
例子(真正
的
用例更复杂):系统接收来自温度传感器
的
事件
,它使用drools对这些
事件
应用一些规则--即带有阈值
的
决策表--然后它在
kafka
上发送一个建议,当温度超过阈值时,表示“关闭
窗口
对于我所理解
的</
浏览 4
提问于2022-05-03
得票数 1
2
回答
FlinkKafkaConsumer中
事件
时间顺序
的
保证
、
、
、
TL;DR:目前保证Flink中
事件
时间顺序
的
最佳解决方案是什么? 水印触发所有
窗口
的
计算,其中最大时间戳(即结束时间戳- 1)小于新水印。因此,我准备了额外<em
浏览 4
提问于2019-10-24
得票数 2
回答已采纳
1
回答
星火流卡夫卡createDirectStream - Spark显示输入
事件
大小为零
、
、
、
我
的
Kafka
制作人每秒钟发送几条消息给一个有
两个
分区
的
主题。卡夫卡
的
信息被正确处理了,我看到了正确
的
计算和打印。但是在Spark中,在流部分中,它将每个
窗口
的
事件
数显示为Zero。请看这张图片:我很困惑,为什么它显示
的
是零,它不应该显示大量的卡夫卡信息被输入火花流?当我
浏览 1
提问于2016-05-06
得票数 3
1
回答
用于交换RabbitMq和
Kafka
消息系统
的
设计模式
、
、
、
这是一个相当普遍
的
问题。 我想设计一组类和接口,这样我就可以在消息传递系统
之间
进行交换,而不必更改代码,可能是在RabbitMq和
Kafka
之间
。我主要关心
的
是如何抽象它们所处理
的
事件
,因为这
两个
系统都需要
事件
处理程序,但是,当然,这
两个
系统上
的
事件
处理程序是不同
的
。
浏览 0
提问于2017-05-10
得票数 -5
1
回答
Apache Flink:在一段时间内未收到数据时如何关闭固定大小
的
窗口
、
、
我正在尝试计算基于
事件
时间
的
来自
Kafka
主题
的
每分钟传入
事件
的
速率。我使用
的
是1分钟
的
TumblingEventTimeWindows。下面给出了代码片段。我观察到,如果我没有接收到
特定
窗口
的
任何
事件
,例如从2.34到2.35,则上一个2.33到2.34
的
窗口
不会接近。我理解2.33到2.34
窗口
丢失数据
的
风
浏览 202
提问于2020-12-23
得票数 0
1
回答
Kafka
将单个日志
事件
行聚合为组合日志
事件
。
、
我正在使用
Kafka
来处理日志
事件
。对于简单
的
连接器和流转换,我对
Kafka
和
Kafka
流有基本
的
知识。现在我有了一个具有以下结构
的
日志文件:日志
事件
有多个日志行,由event_id连接(例如邮件日志)。示例:1235 1 INFO11237 1 END示例:1234 2 S
浏览 3
提问于2016-11-08
得票数 2
回答已采纳
1
回答
Kafka
流:
窗口
时对旧数据
的
再处理
、
有一个
Kafka
流应用程序,它通过流连接执行
窗口
(使用原始
事件
时间,而不是挂钟时间),例如1天。如果打开这个拓扑,并从一开始就重新处理数据(就像在lambda风格
的
体系结构中那样),那么这个
窗口
会将旧数据保存在那里吗?例如:如果今天是2022-01-09,而我正在接收2021-03-01
的
数据,这个旧数据会进入表吗,还是会从一开始就被拒绝? 在这种情况下-可以采取什么策略来重新处理这些数据?使用
Kafka
Streams 2.5.0进行更新
浏览 6
提问于2022-01-09
得票数 0
1
回答
基于微服务
的
应用程序如何能够同时使用服务网格和
事件
驱动体系结构?
、
、
、
我遇到了一些应用程序,他们说他们使用
事件
驱动架构在微服务(
Kafka
作为
事件
代理)和服务网格(LinkerD)
之间
进行通信。有几个问题我还没有找到答案:假设我们有ServiceA和ServiceB (都有
浏览 3
提问于2022-03-07
得票数 0
回答已采纳
1
回答
kafka
流跳跃
窗口
聚集,导致时间戳为零
的
多个
窗口
。
、
、
、
、
Kafka
流DSL
窗口
聚合导致多个
窗口
。我正期待着一个
窗口
在开始和30秒后,另一个
窗口
。但是实际
的
输出是不同
的
,因为开始时有
两个
窗口
正在创建。30秒
的
希望
窗口
。我相信,最初应该只有一个
窗口
,30秒后,另一个
窗口
应该创建。注意:我每4秒获得一次输入数据,期望输出/
浏览 1
提问于2019-11-20
得票数 4
回答已采纳
1
回答
spring和Binder在与
Kafka
的
交互方面有什么区别?
、
、
、
、
我
的
理解是,创建是为了与
Kafka
客户端API交互,后来创建项目是为了“构建与共享消息传递系统相连接
的
高度可伸缩
的
事件
驱动
的
微服务”,该项目包括
两个
绑定程序,其中一个是允许与
Kafka
交互
的
绑定器。spring-cloud-stream-binder-
kafka
-streams 因此,我很清楚,如果我想与
Kafka
交互,我将使用spring云流方法和适当
的
绑定器。需要以下
两
浏览 3
提问于2021-11-10
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyQt_信号与槽_两个窗口类之间信号传递
“事件驱动架构”Apache Kafka中的事务
使用Kafka Streams构建事件溯源系统的经验分享
算法:查找图中两个节点之间的距离
“事件驱动架构”Kafka中的模式注册表和模式演化
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券