腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3421)
视频
沙龙
1
回答
PyFlink性能与Scala
的
比较
、
、
、
如何将PyFlink性能与
Flink
+ Scala进行比较?因此,Apache是纯
流
的
,而不是Spark
的
微
批
,我倾向于选择Apache。但我唯一关心
的
是PyFlink
的
性能。PySpa
浏览 3
提问于2021-11-05
得票数 1
回答已采纳
1
回答
当
流
不重要时
、
最近,我一直在比较火花和
Flink
的
一个全新
的
项目。在这个项目中,
流
功能不是那么重要。对~(90) is数据进行批量分析是最重要
的
。稍后,我将在数据分析中应用ML和数据挖掘。在搜索时,我发现很多文章,演示和视频声称
Flink
是下一代
的
分析解决方案。没有多少文章能为火花辩护。另一方面,星火是(或曾经?)非常流行,并广泛部署在非常大
的
生产系统。我
的
问题是:对于我
的
用例来说,
流
并不重要,我是拥抱
F
浏览 5
提问于2017-05-19
得票数 3
回答已采纳
1
回答
风暴式间歇加工
、
、
我是风暴
的
新手,几乎没有什么基本问题。我对风暴
的
用例是
流
处理和批处理。用例2:风暴拓扑应该将元组作为一
批
元组进行处理。问:有没有办法,我可以说,一个特定
的
元组是结束
的
溪流和风暴应该告诉我什么时候处理完所有的元组? 是否Storm不是这样做
的
正确框架,因为它是用于
流
处理
的
(用例1)。风暴三叉戟对用例#2有帮助吗?
浏览 3
提问于2015-09-22
得票数 0
1
回答
如何保留apache
flink
任务并在重启jobmanager时提交记录
我正在使用apache
flink
1.10
批
量计算我
的
流
数据,今天我将我
的
apache
flink
kubernetes(v1.15.2) pod从机器1移动到机器2,发现所有提交任务记录和任务列表都消失了重启apache
flink
的
kubernetes pod时,如何保存提交记录和任务列表?我只发现checkpoint persistant,但没有关于任务
的
。如果丢失了正在运行
的
任务历史,我必须上传我
的
浏览 4
提问于2020-04-30
得票数 0
1
回答
Flink
卡夫卡
流
相对于星火卡夫卡
流
的
好处?卡夫卡流过弗林克?
、
、
、
、
在火花
流
中,我们设置了几乎实时
的
微批处理
的
批处理间隔。在
Flink
(DataStream)或Storm中,
流
是实时
的
,所以我想没有这样
的
批处理间隔
的
概念。在卡夫卡,消费者在拉,我想象星火使用
批
参数从卡夫卡经纪人提取消息,那么
Flink
和Storm是如何做到
的
呢?我设想
Flink
和Storm在一个快速循环中拉出Kafka消息形成实时
流
源,如果是这样的话,如果我将火
浏览 5
提问于2016-10-24
得票数 7
回答已采纳
1
回答
Apache
Flink
存储
在处理了这数百万
的
事件/数据之后,哪里是保存信息
的
最佳地方?我看到一个关闭
的
提到了Parquet格式,但是,默认
的
是HDFS吗?我关心
的
是储蓄后(哪里?)如果它是容易
的
(快!)才能检索到数据?
浏览 3
提问于2015-08-11
得票数 5
2
回答
我怎么知道我已经吃掉了所有的卡夫卡话题?
、
我使用
的
是
Flink
v1.4.0。我使用如下代码所示
的
Kafka
FLink
Consumer来使用Kafka主题中
的
数据:properties.setProperty(这是否足以确认我已经使用了Kafka主题中
的
所有数据?)
浏览 6
提问于2018-01-25
得票数 3
回答已采纳
1
回答
流
处理和批处理
、
、
、
、
由于批处理
的
延迟是在累积特定数目的数据时产生
的
,我是否可以将“一
的
大小”
的
批处理视为
流
处理?或者当运算符进行计算时还有其他
的
区别吗?例如,如果我将基于火花
的
程序
的
批处理大小设置为1,是否可以使其延迟降低到
flink
?我
的
一种想法是:对于
流
处理,如果处理了前一个操作符,一个数据
流
就会从前一个操作符流到后一个操作符,但是对于批处理过程,只有在操作符处理完一个数据之后,它才能接受另一个数
浏览 9
提问于2022-11-14
得票数 0
1
回答
Flink
流
,“sum”到底是做什么
的
?
、
、
我很难理解
流
,以工作计数为例,对于卡夫卡这样
的
无限源,“和”到底是做什么
的
?returns(Types.TUPLE(Types.STRING, Types.LONG)) .sum(1); 开始时间和结束时间是多少?当第三次
Flink
收到单词“foo”时,“sum”
浏览 1
提问于2019-03-06
得票数 0
回答已采纳
1
回答
Flink
:支持多个执行环境吗?
、
、
、
在
Flink
程序中创建多个ExecutionEnvironments可以吗?更具体地说,在相同
的
主方法中创建一个ExecutionEnvironment和一个StreamExecutionEnvironment,这样就可以处理批处理,然后再传输到
流
,而不会出现问题?我猜另一种可能是将程序分成两部分,但为了我
的
测试目的,这似乎更好。
Flink
为这种情况做好准备了吗?所有这些看起来都很好,但当join在一个公共索引上运行两个
流
并使用window(TumblingProcessingTimeW
浏览 6
提问于2019-10-10
得票数 1
回答已采纳
1
回答
以字符串值表示
的
Apache
Flink
表查询结果
、
、
我正在从
flink
表api编写一个查询来检索一条记录。然后检查是否找到一条记录,如果找到,则获取该记录
的
每个列值
的
字符串值。name | phone || 01| sam | 23354 || 03| kim | 23351 |sudo代码: foundRecord = find recor
浏览 4
提问于2020-05-30
得票数 0
回答已采纳
1
回答
StreamTableEnvironment能够针对批处理
流
运行吗?
然而,可以使用
流
执行模式在那里处理有界
流
,但效率较低。这是否意味着StreamTableEnvironment可以处理批处理
流
,但效率较低,因为不能将StreamTableEnvironment配置为在批处理模式下运行?
浏览 8
提问于2021-07-29
得票数 0
回答已采纳
1
回答
Flink
:实现DataStream和“规则集”之间
的
“连接”
、
以下用例
的
最佳实践建议是什么?我们需要将
流
与一组“规则”相匹配,这些“规则”本质上是一个
Flink
DataSet概念。对此“规则集”
的
更新是可能
的
,但并不频繁。每个
流
事件必须对照“规则集”中
的
所有记录进行检查,而且每次匹配都会将一个或多个事件生成到接收器数据
流
中。规则集中
的
记录数在6位范围内。为了加快迭代速度,我们还可以将列表分成几个
批
,实质上是创建一个列表列表,并创建一个单独
的
线程来迭代每个子列
浏览 1
提问于2018-06-04
得票数 0
回答已采纳
1
回答
如何对无水印
的
flink
联合数据流进行排序
flink
流
具有多个数据
流
,然后使用org.apache.
flink
.streaming.api.datastream.DataStream#union方法对这些数据流进行合并。然后,我得到了问题,数据
流
是混乱
的
,我不能设置窗口来对数据
流
中
的
数据进行排序。Sorting union of streams to identify user sessions in Apache
Flink
我得到了答案,但com.liam.learn.<
浏览 30
提问于2019-01-12
得票数 2
1
回答
Flink
mysql和mysql连接器
的
区别?
、
、
、
、
为了丰富数据
流
,我们计划将MySQL (MemSQL)服务器连接到现有的
flink
流
应用程序此外,我还发现了另一个名为
Flin
浏览 19
提问于2022-02-07
得票数 0
回答已采纳
1
回答
DataStream上
的
Flink
sql查询(Apache )
、
、
、
我完全是阿帕奇·弗林克
的
菜鸟。只是想弄脏我
的
手。我有下面的场景。事件数据报 我正在学习动态表和
Flink
SQL
的
概念。我不知道如何进一步处理。有人能帮帮我吗?
浏览 0
提问于2018-02-09
得票数 0
1
回答
Flink
状态与
Flink
表API
的
连接
、
我们感兴趣
的
是从连接到常规
的
Flink
流
应用程序,最好使用Table。这样做
的
想法是查阅Statefun在
Flink
中注册
的
表,是否有此可能,如何做才是正确
的
方法?到目前为止,我
的
想法是在一些主函数中初始化我
的
表
流
,并注册一个有状态函数提供程序来连接到该表:public classFnEnrichmentCall
浏览 2
提问于2020-04-11
得票数 2
1
回答
流媒体连接在
Flink
中
的
实现
、
、
我正在研究
Flink
中join
的
各种实现。在批处理模式下,我遇到了hybrid-hash join和sort-merge join。在这两种情况下,都有一个阻塞洗牌,它是在连接之前完成
的
,因此连接之前
的
操作符
的
输出被实现到一些非临时存储中,如所说
的
。 我现在正在查看流连接
的
情况。我看到了一个实现,其中为两个输入创建了两个哈希表。为了限制哈希表
的
大小,我们在哈希表中放置了一个输入保存
的
窗口。在我看来,实际
的
实现应该是这
浏览 1
提问于2021-05-14
得票数 0
回答已采纳
1
回答
如何在
Flink
表API中加入两个数据
流
和滑动窗口函数?
、
、
、
、
我有两个来自两个Kafka主题
的
流
表,我想加入这些
流
并对所连接
的
数据执行聚合功能。需要使用滑动窗口连接
流
。TIMESTAMPDIFF(SECOND, ep.event_
flink
_time, cep.event_
flink
_time) as timediff, HOP_START (cep.event_
flink
_time, INTERVAL '5' MINUTES, INTERVAL '10' MINU
浏览 25
提问于2022-05-24
得票数 0
1
回答
Flink
1.5中
的
批处理表API问题--对流API需求
的
抱怨
、
我试图用
Flink
1.5.0创建一个面向批处理
的
Flink
作业,并希望使用Table和SQL来处理数据。我
的
问题是试图创建一个编译错误
的
BatchTableEnviroment final BatchTableEnvironment bTableEnv = TableEnvironment.getTableEnvironment(bEnv)
浏览 1
提问于2018-06-19
得票数 0
点击加载更多
相关
资讯
Flink on Hive构建流批一体数仓
Flink1.11+Hive批流一体数仓
深度解读:Flink 1.11 SQL流批一体的增强与完善
基于Flink+Hive构建流批一体准实时数仓
flink handbook-flink数据流编程模型
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券