腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2321)
视频
沙龙
2
回答
pyflink
kafka
连接器
将
接
收到
的
json
数据
反序
列
化为
null
、
、
、
、
我正在使用
PyFlink
创建一个流处理器。当我
将
Kafka
连接到Flink时,一切工作正常。但是当我向
kafka
发送
json
数据
时,
PyFlink
接
收到
它,但
反序
列化程序将其转换为空。
PyFlink
代码是 from
pyflink
.common.serialization import Encoder from
pyflink
.datastream.connectors impor
浏览 286
提问于2021-06-13
得票数 0
1
回答
Kafka
文件槽
连接器
-输出
JSON
、
有人对文件库
连接器
的
输出格式有问题吗?我想知道为什么我会
收到
这样
的
格式 {op=u, before={withTax=1, unit=pc(s), deleted=0, updated_at=
null
, price=420000.0, name, connector=mysql, pos=1044011265, name=crm-
kafka
-connector, gtid=
null
, row=0, snapshot=false, db=gxapp_customer_db
浏览 0
提问于2019-06-20
得票数 0
回答已采纳
1
回答
在卡夫卡
连接器
的
DeserializationSchema中还是在进程函数中进行avro
反序
列化比较好
、
因此,我有一个用例,其中有一个
kafka
连接器
从
kafka
主题中消费一个avro字节数组,并将其转换为Avro对象。看起来很简单,但我意识到,如果
反序
列化由于某些原因而失败,比如不匹配模式或其他什么的话,那么处理
的
唯一选项要么记录错误,然后输出空字节数组,要么抛出错误(对于长时间运行
的
作业,我不认为这是个好主意)。但是,如果
kafka
连接器
的
反序
列化器只是接收字节数组,输出它,下游处理函数进行验证和转换,那么如果发生
浏览 0
提问于2019-06-28
得票数 1
回答已采纳
1
回答
Spark解组
将
原始字节转换为可读格式
、
、
、
、
我
的
Spark应用程序从
Kafka
接收二进制
数据
。
数据
被作为字节原型消息发送到
Kafka
。proto消息是:使用ScalaPB库,我可以
将
Any消息
反序
列
化为
其原始格式。如何
将
值从字节
反序
列
化为
可读格式?SerializationUtils不工作。这就是Any消息
反序
列化后
的
样子。 <cod
浏览 9
提问于2021-03-17
得票数 0
回答已采纳
1
回答
卡夫卡连接变压器适用于连接转换器之前或之后。
、
、
、
嗨,我试图了解卡夫卡连接变压器和转换器
的
流程。试图了解变压器和转换器序列在源
连接器
上是如何工作
的
浏览 3
提问于2022-09-26
得票数 0
回答已采纳
1
回答
在
Kafka
连接S3
连接
器中用空内数组处理消息
、
、
、
我使用
Kafka
连接和两个
连接器
:在运行时,我从S3
连接
器中得到了这个错误我已经找到了相关
的
消息,其中包含了以下内容: "some_key"
浏览 2
提问于2021-05-11
得票数 2
2
回答
Spark (2.2):使用结构化流对
Kafka
中
的
Thrift记录进行
反序
列化
、
、
、
我是spark
的
新手。我使用结构化流媒体从
kafka
中读取
数据
。我可以在Scala中使用以下代码读取
数据
: .format("
kafka
") .option("startingOffsets", startin
浏览 1
提问于2017-10-19
得票数 2
1
回答
Kafka
连接S3接收器在加载Avro时抛出IllegalArgumentException
、
、
、
、
我使用
将
Avro
数据
以拼图格式加载到S3中。com.qubole.streamx.ByteArrayConverterinternal.key.converter=org.apache.
kafka
.connect.
json
.JsonConverterinternal.value.converter=org.apache.
kafka
.connect.
json
.JsonConvert
浏览 13
提问于2017-01-24
得票数 0
回答已采纳
1
回答
avro.io.AvroTypeException: datum <avro data>不是架构{...}
的
示例
、
、
、
我们正在努力
将
Apache Storm与
Kafka
的
Confluent框架集成在一起。我们正在使用名为"Pyleus“
的
storm
的
python包装器 我们设置了一个Confluent-
Kafka
JDBC
连接器
来监视
数据
库表,每当DB中发生变化时,新记录就会以Avro格式作为
Kafka
在Pyleus bolt中,我们能够获得
Kafka
消息,但是,我们不能将其
反序
列
化为
<
浏览 1
提问于2016-03-01
得票数 0
1
回答
哪些是Avro Schema命名空间
的
有效(和无效)字符
、
、
、
我有一个名称空间为"ca.gms.api-event-log“
的
Avro模式。我已经使用此模式
将
消息序列
化为
Kafka
,成功地向
Kafka
模式注册表注册了该模式,并使用
Kafka
连接器
将
数据
以.avro文件
的
形式发送到亚马逊S3。到目前为止,没有任何问题。我现在正在尝试使用Azure
数据
工厂
将
数据
从亚马逊网络服务S3复制到Azure,但它抱怨以下问题:
浏览 15
提问于2019-12-31
得票数 1
1
回答
kafka
s3 confluent
连接器
-
将
json
作为字符串上传
、
、
、
我使用来自confluent
的
kafka
s3接收器
连接器
将
json
发送到s3。来自
kafka
的
每个条目都是一个有效
的
json
,但是当我在s3
json
文件中获得
数据
时,我有一个字符串查找,如下所示: "{\"one\":\"test\"}\n\n{\"two\":\"none\"#value.converte
浏览 14
提问于2021-07-02
得票数 0
回答已采纳
1
回答
kafka
s3接收器
连接器
在获取空
数据
时崩溃
、
、
、
、
我有一个工作
的
s3接收器
连接器
,直到源
连接器
发送一个空值;s3
连接
器崩溃。当我从MS SQL
数据
库中删除记录时出现问题。源
连接器
将
删除信息发送到s3
连接
器,s3
连接
器崩溃。我删除并重新创建了具有不同名称
的
s3
连接
器,没有任何更改。) [task-thread-minio-connector1-0] apiVersion
浏览 0
提问于2020-05-24
得票数 4
1
回答
从卡夫卡·贾森留言到雪花桌
、
、
、
我正在尝试实现一个雪花库
连接器
,这样我就可以直接将到达
Kafka
主题
的
消息加载到适当
的
雪花表中。到目前为止,我只能将原始
的
json
加载到两个
列
(RECORD_METADATA和RECORD_CONTENT)
的
表中。我
的
目标是通过扁平
json
消息,将它们直接加载到适当
的
表中。我有表
的
结构,所以我可以创建一个表并直接加载到其中。但是,我需要一种方法,使加载过程平缓消息。 我一直在网上查
浏览 2
提问于2022-01-24
得票数 1
2
回答
如何在Snowflake connector for
KAFKA
中使用连续流
数据
任何人都可以帮助我消耗连续
数据
中
的
数据
,这些
数据
正在被流式传输。在snowflake
连接器
中应该为主题提供什么? 因为我能够使用所需
的
主题名称通过单个表
数据
填充
数据
。但我有捕获连续
数据
流到表中
的
要求。
浏览 0
提问于2021-10-07
得票数 5
2
回答
如何在Apache
Kafka
中从远程
数据
库拉取
数据
?
、
、
我想在Apache
Kafka
中创建实时
数据
管道。我有一个
数据
库,它位于远程位置,该
数据
库不断更新。我应该使用哪个
Kafka
连接API从
数据
库中提取
数据
并实时摄取到
Kafka
broker中?稍后,我将使用
kafka
stream和KSQL运行即席查询来执行指标。 任何帮助都将不胜感激!
浏览 2
提问于2018-08-28
得票数 1
1
回答
由于主题序列化错误,org.apache.
kafka
.connect.errors.DataException:
将
byte[]转换为
Kafka
连接
数据
失败
、
、
当试图在ksql上创建ElasticSearch接收器
连接器
时,我得到了以下错误:导致: org.apache.
kafka
.common.er
浏览 3
提问于2022-01-01
得票数 0
回答已采纳
1
回答
卡夫卡连接水槽-从: Avro主题,到:
Json
-> Redis
、
、
、
、
我有一个环境,我使用了一个
Kafka
工作人员,它消耗了一些来自甲骨文DataBase
的
数据
,然后在Avro格式上以
Kafka
格式推送它。现在,我需要创建一个
Kafka
来使用这条AVRO消息,将它转换为
Json
,然后在Redis DataBase上编写它。下垂我
的
配置工人和水槽。", "val
浏览 5
提问于2021-06-24
得票数 0
回答已采纳
1
回答
从Logastash发送到
Kafka
和Avro
、
、
、
、
我试图使用avro模式
将
数据
从logstash发送到
kafka
。我
的
logstash输出看起来如下: codec => avro { } {"name": "error_msg", "type": "strin
浏览 5
提问于2020-04-22
得票数 1
回答已采纳
1
回答
多种事件类型
的
Apache Flink CEP模式
、
、
、
目前,我正在做一个学期
的
项目,在这个项目中,我必须认识到三个事件
的
系列。像P -> R -> P一样 我们有两种不同
的
事件类型,在同一主题中通过
Kafka
连接器
消费。我创建了一个名为Event
的
父类,其他两个类型从该父类派生而来。
Kafka
连接器
将带有EventSchema
的
JSON
反序
列
化为
父类事件。,如果我以适当
的
格式发送三条消息,该模式
浏览 22
提问于2019-01-17
得票数 0
回答已采纳
1
回答
消费KSQL流中
的
AVRO
Kafka
主题时出错
、
我用VALUE_FORMAT='
JSON
' TOPIC='MYTOPIC'在KSQLDB中创建了一些虚拟
数据
作为流 设置已经结束了Docker-compose。我正在运行
Kafka
代理、Schema-registry、ksqldbcli、ksqldb-server、zookeeper 现在,我想使用该主题中
的
这些记录。我
的
第一个也是最后一个方法是在命令行上使用以下命令 docker run --net=host --rm confluentinc/c
浏览 20
提问于2021-04-23
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深入理解Kafka Connect:转换器和序列化
这可能是北半球最暖的Kafka Connect数据管道教程:3
官宣:Apache Flink 1.14.0 发布
PyFlink核心功能与应用全解
当Flink遇到Kafka-FlinkKafkaConsumer使用详解
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券