腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
flink
streamtable
api
从
jdbc
中
读取
流
数据
、
我发现在
jdbc
连接器的部分只有DDL和yaml格式的配置,我不知道
如何
使用
them.so。我问的是在写
flink
app jar.if时
如何
从
jdbc
数据
源
读取
流
数据
。如果
数据
源
中
的
数据
发生了变化,
流
是否会更新。
浏览 86
提问于2020-06-23
得票数 1
1
回答
在DataStream
Flink
中
读取
JDBC
源
数据
的问题
、
、
、
、
在开始
使用
新部署的Kafka
流
的更多
数据
之前,我们首先需要
使用
这些
数据
库
中
的
数据
。 我花了很多时间阅读
Flink
书籍和网页,但我有一些简单的问题和假设,我希望你能帮助我,这样我才能进步。首先,我想
使用
DataStream
API
,这样我们既可以
使用
历史
数据
,也可以
使用
实时
数据
。现在我正在尝试针对我们的生产
数据
库编写代码,我需要能
浏览 1
提问于2021-08-10
得票数 2
回答已采纳
1
回答
Apache表1.4:表上可能有外部SQL执行吗?
、
、
是否可以在外部查询现有的
StreamTable
,而不上传.jar获取执行环境和检索表环境?由于Apache表1.4的动态(连续)表特性,我一直在等待它的发布。为了执行一些活动查询,而不是在
数据
流
之上定义(连续的或仅附加的)
数据
库视图。我知道我可以将我的表导出到一些
数据
库
中
,并
使用
SQL动态查询这个
数据
库,但这是一种尴尬的行为。
Flink
的美妙之处在于,一切都是实时的,所有的东西都是
流
,那么是否可以
从
浏览 5
提问于2017-10-25
得票数 2
回答已采纳
1
回答
使用
jdbc
连接器与mysql接收器进行覆盖的接收器
flink
DataStream
、
、
、
、
我的用例是
从
AWS动态
数据
流
中
获取
数据
,
使用
flink
数据
流进行过滤/映射,
使用
StreamTable
环境对
数据
进行分组和聚合,
使用
SQLTableEnvironment编写mysql,
使用
JDBC
连接器编写我能够将我的
数据
存储结果写入mySQL表
中
,但是由于它在每一行后面都是
流
的
浏览 2
提问于2021-05-04
得票数 2
回答已采纳
2
回答
如何
在
Flink
转换
中
更新配置?
、
、
、
、
给定一个
Flink
流
作业,该作业将map()操作应用于
流
。因此,我正在寻找一种方式,让所有的
Flink
任务重新阅读一个新的配置在运行时。有没有可能 将KafkaSourcewait挂起,直
浏览 13
提问于2022-10-11
得票数 0
1
回答
在
Flink
中
的范式之间移动
数据
我在一个关系
数据
库中有一些批处理的
数据
,我想
使用
Flink
将它们推送到消息总线上。由于
Flink
同时支持批处理和
流
模式,因此它看起来非常适合。话虽如此,我不知道这项任务是属于StreamingJob还是BatchJob,以及
如何
将两者联系起来。此任务是否更适合FlinkSQL环境? 这个是可能的吗?我需要注意什么?
浏览 25
提问于2021-04-28
得票数 0
回答已采纳
2
回答
使用
Flink
同步的进程2
流
、
、
、
、
我有两个
流
A和B。 我开始同时摄入A和B。
流
A只在每分钟的59秒获得一条记录。
流
B获取一分钟内的任何一秒的记录。 我希望处理两个
流
是同步的。示例:
从
流
A在10:01:59之后,我将在10:02:59收到一条记录,直到10:02:59我也不想从
流
B
读取
任何内容。 这可以在
Flink
中
实现吗?
浏览 49
提问于2021-01-21
得票数 0
2
回答
如何
使用
Flink
读取
Postgresql
中
的表
、
我想
使用
Flink
对Postgresql
中
的
数据
进行一些分析。我应该
如何
和在哪里给出端口地址,用户名和密码。我正在尝试
使用
链接:中提到的表源。
浏览 0
提问于2018-06-21
得票数 1
回答已采纳
1
回答
流在Hadoop
中
的应用
、
、
、
、
在这个例子
中
,我确实看到他们创建了一个单独的应用程序(类似于
流
应用程序),该应用程序生成和消费
数据
,并在
数据
上应用模式匹配。他们现在还没有在.Till(如卡夫卡)之间放置一个
流
层,单应用程序就足以满足这一目的,这使得它非常优化。现在,我知道,如果我
使用
Kafka,那么我需要两个应用程序;一个用于将
数据
摄取到Kafka主题中,另一个用于消费Kafka主题的
数据
。我有几个问题我没有得到回答: 为什么在这个例子
中
他们没有
使用</
浏览 2
提问于2016-06-13
得票数 0
1
回答
如何
使用
一个
流
和两个静态配置单元表进行连接
我是
Flink
的新手,我
使用
的是
Flink
1.3(旧版本,但我的公司已经
使用
了这个版本...)来编写
流
应用程序。这个应用程序涉及连接一个
流
(来自kafka)和两个静态Hive表(每天更改一次,两个表大约有1亿行),此时,我想知道应该
使用
哪种
浏览 0
提问于2019-09-23
得票数 0
1
回答
Flink
JDBCInputFormat找不到方法“setRowTypeInfo”
、
我想
使用
flink
-
jdbc
从
mysql获取
数据
。它是这样的import org.apache.
flink
.
api
.java.ExecutionEnvironmentimport org.apache.
flink
.
api
.java.io.
jdbc
.JDBCInput
浏览 14
提问于2017-07-09
得票数 0
2
回答
如何
处理(Apache )高IO瓶颈?
、
、
、
、
让我们举一个简单的例子,我有一个非常简单的波束管道,它只是从一个文件
中
读取
数据
并将
数据
转储到一个输出文件
中
。现在,让我们考虑输入文件是巨大的(一些GB的大小,您通常无法在文本编辑器
中
打开的文件类型)。由于直接运行程序实现非常简单(它将整个输入集读入内存),它将无法
读取
和输出这些大型文件(除非您为java vm进程分配了不太实际的大量内存);因此,我的问题是:“像
flink
/spark/云
数据
流
这样
浏览 2
提问于2021-07-01
得票数 0
回答已采纳
1
回答
FLINK
Stream
API
socketTextStream(主机名、端口)充当客户端
FLINK
Stream接口socketTextStream(主机名,端口)方法作为客户端。也就是说,我们需要在端口上发送连续的
流
,“socketTextStream (hostname,port)”方法将
读取
传入的
流
。但我的要求是,我想
使用
FLINK
作为服务器,并寻找一个可以
从
端口侦听的
API
。任何人都可以拥有
FLINK
stream
API
吗?这会解决我的问题。提前感谢! //
浏览 2
提问于2017-04-27
得票数 2
2
回答
除了
使用
他们的仪表板之外,
如何
提交
flink
作业?
、
我已经编写了
flink
作业来
使用
数据
集和
数据
流
api
。我已经
从
相同的main()方法启动了这两个程序,但现在当我将作业提交到
flink
Dashboard时。只有dataset
api
程序正在运行,仪表板显示作业已完成,
流
未被触发,
flink
仪表板也未显示有关
数据
流
执行的任何内容。但是,当我
从
eclipse运行时,
数据
集和<em
浏览 16
提问于2017-07-12
得票数 1
1
回答
org.apache.
flink
.
api
.java.io.
jdbc
.JDBCInputFormat不在
FLINK
罐子里
、
我已经修改了我的WordCount,以便
从
文本文件和csv文件
中
获取输入,并且它可以工作。 为什么Eclipse找不到导入?因为在jar
flink
-java-0.8.1.jar
中
没有io/
jdbc
目录。我在
flink
-0.9.0-bin-hadoop
浏览 2
提问于2015-07-02
得票数 1
回答已采纳
1
回答
在
Flink
SQL作业
中
查询SQL Server
数据
库表时,为什么
Flink
SQL作业
从
正在运行变为已完成?
、
当我们在作为SQL Server
数据
库表的源的
Flink
SQL CLI中选择任何表时,为什么
Flink
作业在从
数据
库表
中
获取所有记录后“完成”?有没有可能让它“运行”,这样它就可以
从
数据
库表
中
获取最新的
数据
?
浏览 4
提问于2020-12-25
得票数 1
1
回答
如何
在
Flink
中
连续
读取
CSV文件并删除标头
、
、
、
我正在
使用
Flink
流
API
,我希望继续
从
文件夹
中
读取
CSV文件,忽略头文件并将CSV文件
中
的每一行转换为Java类(POJO)。在完成所有这些处理之后,我应该获得一个Java对象
流
(POJO)。
从
CSV文件
中
获取字符串流 String path = "/home/cosmin/Projects/
浏览 2
提问于2017-08-02
得票数 2
1
回答
Flink
1.2.0
jdbc
从
Mysql
读取
流
数据
、
、
、
、
我正在尝试
使用
Flink
2.1.0
从
mysql日志表
中
读取
流
数据
,但是,它只
读取
一次,然后它将停止该过程。我希望它继续
读取
,如果有传入的
数据
,并打印它。env.createInput( .setDrivername("com.mysql.
jdbc
.
浏览 72
提问于2017-02-22
得票数 2
1
回答
是否可以在
Flink
的
数据
流
中
使用
Dataset转换-:"Distinct()“?
、
、
、
我想知道,无论
如何
,
Flink
的
数据
流
API
是否可以用来
从
传入的记录
中
删除重复项(可能是在特定的时间窗口内),就像Dataset
API
一样,它提供了一个称为"Distinct“的转换。或者,如果
数据
集被转换为
数据
流
以便在
Flink
中进行内部处理,则无论
如何
都可以将该
数据
集转换为
数据
流
。 在这方面请帮
浏览 1
提问于2020-03-05
得票数 0
1
回答
如何
在
flink
中
按照
数据
写入文件的顺序
从
文件
数据
创建
数据
流
?
、
我
使用
flink
从
文件
中
读取
数据
并将其转换为
流
,然后处理stream.But当我
从
文件
中
读取
数据
并将其转换为
流
时,这样形成的
数据
流
中
的内容与文件
中
的
数据
顺序不同。根据我的要求,
数据
在文件和
流
中
的顺序很重要。有人能在这方面帮我吗?谢谢
浏览 3
提问于2017-06-21
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券