腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
org.apache.
kafka
.common.errors.TimeoutException:超时:获取
主题
元数据时过期的java.lang.RuntimeException
、
、
我正在使用数据流
kafka
到
bigquery
模板。启动数据流作业后,它会在队列中停留一段时间,然后失败,出现以下错误:在应聘工作时,我提供了以下参数:
kafka
主题
名引导服务器ip和端口(私有ip)
bigquery
主题
名SA
浏览 3
提问于2020-12-07
得票数 0
1
回答
从Oracle增量获取
、
、
、
我们可以使用Spark,
Kafka
或者普通的JDBC。 它唯一应该能够支持重载的东西。
浏览 22
提问于2019-02-28
得票数 0
回答已采纳
1
回答
BigQuery
to
Kafka
主题
、
、
、
我有一个数据是加载到
BigQuery
中,我需要连接
BigQuery
到卡夫卡作为一个源发布数据到卡夫卡
主题
一天一次。既然没有
BigQuery
源连接器,那么将
BigQuery
数据发布到
Kafka
主题
的最佳方式是什么呢?
浏览 18
提问于2021-09-21
得票数 0
回答已采纳
1
回答
有一个卡夫卡对应的AWS动态消防软管?
、
、
、
看起来AWS Kinesis是一种将数据(缓冲在一起)摄取到对象的方法,这种功能是否有
Kafka
的对应物呢?
浏览 0
提问于2019-02-19
得票数 1
回答已采纳
1
回答
如何将Azure事件中心(
kafka
界面)的事件集成到google云发布/订阅
、
、
我有一个需求,我需要在Azure事件中心使用
kafka
主题
。需要创建将使用作为参数提供的
主题
的POST端点。消息必须以
kafka
主题
为属性,以消息内容为主体,在公共子
主题
上发送。 这是一个很高的要求。
浏览 1
提问于2021-06-03
得票数 1
回答已采纳
2
回答
将数据流
Kafka
用于
bigquery
模板时出错
、
、
、
我正在使用数据流
kafka
到
bigquery
模板。com.google.cloud.teleport.v2.templates.KafkaToBigQuery.main(KafkaToBigQuery.java:222) 在应聘工作时,我提供了以下参数: emailzone.
kafka
主题
浏览 2
提问于2020-12-07
得票数 1
3
回答
卡夫卡到谷歌云平台数据流的摄取
、
、
可以将来自
主题
的
Kafka
数据流、消费和摄入到
BigQuery
/Cloud存储中的选项有哪些。GCP附带了基于模型的Dataflow。可以将
Kafka
数据推送到云发布子中,然后放到
BigQuery
表中。卡夫卡流/火花作业,将被排除在GCP之外,也可以使用。 如果数据完全托管在(GCP)上,那么在设计决策过程中需要考虑哪些因素?
浏览 1
提问于2019-01-07
得票数 3
回答已采纳
1
回答
kafka
-connect-
bigquery
:"topics“中基于正则表达式的语法
、
所以我使用
kafka
-connect-
bigquery
mysql.database.table1我想立即将其添加到connector中: "topics": "mysql.database
浏览 12
提问于2021-05-31
得票数 0
回答已采纳
1
回答
如何让
Kafka
Connect
BigQuery
Sink Connector为每个事件类型而不是每个
主题
创建一个表?
、
、
、
、
我在我们的卡夫卡(Avro)活动中使用了confluentinc/
kafka
-connect-
bigquery
。在一些
主题
上,我们有不止一种事件类型,例如,UserRegistered和UserDeleted在
主题
domain.user上。 模式注册表中的
主题
如下所示。curl --silent -X GET http://avro-schema-registry.core-
kafka
.svc.cluster.local:8081/subjects
浏览 29
提问于2021-05-05
得票数 0
回答已采纳
1
回答
卡夫卡连接到Google
BigQuery
抛出错误java.lang.NoClassDefFoundError:
、
、
我试图从一个卡夫卡
主题
流到谷歌
BigQuery
。/share/
kafka
/plugins/d4T/hduser/
浏览 1
提问于2021-03-13
得票数 0
回答已采纳
1
回答
Kafka
连接到
Bigquery
连接器,没有模式注册错误
、
、
:70) at com.wepay.
kafka
.connect.
bigquery
浏览 13
提问于2021-11-30
得票数 0
1
回答
卡夫卡连接: java.lang.IllegalStateException:没有当前的分区分配
、
、
我在Kubernetes上运行
Kafka
Connect (8-16个节点,自动标度)。我总共定义了44个连接器,每个
Kafka
主题
一个(每个
主题
一个分区)。这些
主题
是由Debezium / Postgresql编写的。有3个
Kafka
节点。每个连接器的tasks.max设置为4。大部分连接器(但不是每个连接器!)ThreadPoolExecutor.java:624)接收器连接器配置:
浏览 3
提问于2019-03-24
得票数 0
回答已采纳
2
回答
将
BigQuery
发送给卡夫卡作为来源
、
我有一个来自网页的流数据加载到
BigQuery
中,我想将
BigQuery
连接到卡夫卡作为源。有没有像
kafka
-connect这样的连接器用于
BigQuery
接收器。 谢谢,巴拉
浏览 1
提问于2018-02-20
得票数 3
1
回答
Kafka
Connect
Bigquery
接收器-关闭时偏移量提交失败
、
、
、
、
我正在尝试设置
Kafka
Connect
BigQuery
sink connector。我有大约50个
kafka
主题
。此外,
BigQuery
中也不会显示新的表。我的连接器配置: { "config": { "connector.class": "com.wepay.
kafka
.connect.
bigquery
浏览 9
提问于2020-12-05
得票数 0
1
回答
波束/云数据流:如何将
Kafka
(或PubSub)
主题
添加到运行流中
、
、
、
(如何)可以将
主题
动态添加或删除到作为源或宿(
Kafka
或PubSub)的运行管道中?或者使用动态模式作为接收器,就像使用
BigQuery
表名称一样。一些背景知识:我们有不同的
主题
,每个客户一个
主题
,以更好地促进下游聚合,并在运行中清理/添加它们。
Kafka
用于能够在比PubSub更长的时间内回填计算。我现在脑海中的选择要么是扩展KafkaIO来支持这一点,要么是在每次添加了删除的
主题
时更新管道(这意味着在更新时流中会有一些滞后)。也许我的头脑中有一个错误的设
浏览 6
提问于2017-06-23
得票数 2
回答已采纳
1
回答
Kafka
连接
BigQuery
接收器从架构注册表请求不正确的
主题
名称
、
、
、
、
当尝试在我们的
Kafka
(Avro)事件上使用confluentinc/
kafka
-connect-
bigquery
时,我遇到了以下错误: org.apache.
kafka
.connect.errors.DataExceptionfor id 619 Caused by: io.confluent.
kafka
.schemaregistry.client.rest.exceptions.RestClientException:是的,在模式注册表中没有
主题
domain.user-
浏览 58
提问于2021-05-03
得票数 0
回答已采纳
1
回答
Confluent BigQuerySinkConnector架构注册表错误
、
、
我尝试使用Confluent BigQuerySinkConnector创建
Kafka
到
BigQuery
的数据管道。测试环境是一个 docker容器。我在上面添加了(它不是默认存在的)。
主题
模式: "fields": [ "name": "name", }, "name": "(SchemaRegistr
浏览 0
提问于2020-08-19
得票数 1
1
回答
来自KafkaIO的阿帕奇光束流-窗口需求
、
我正在使用KafkaIO接口播放
Kafka
主题
的消息KafkaStream -->使用转换器解码消息-->保存到
BigQuery
请让我知道,我是否需要使用窗口?
浏览 0
提问于2018-04-27
得票数 0
2
回答
如何从Apache Beam KafkaIO中的
kafka
主题
推断avro模式
、
、
、
、
我正在使用Apache Beam的kafkaIO读取一个
主题
,该
主题
在Confluent模式注册表中具有avro模式。我能够反序列化消息并将其写入文件。但最终我还是想写给
BigQuery
。如何提取/推断模式并将其附加到管道中的数据,以便我的下游进程(写入
BigQuery
)可以推断该模式?这是我使用模式注册表url设置反序列化器的代码,也是我从
Kafka
读取的代码: AbstractKafkaAvroS
浏览 3
提问于2020-06-24
得票数 0
1
回答
StructuredStreaming -基于卡夫卡
主题
中新事件的数据处理
、
、
、
、
我有一个结构化的流媒体程序,它从
Kafka
主题
A中读取数据,并进行一些处理,最后将数据放入目标
Kafka
主题
。
主题
(events_topic),如果在上次读取之后有一个新记录,它会执行一些额外的处理--从
BigQuery
表重新加载数据,并将其保存。df_stream = spark.readStream.format('
kafka
') \ .option("
kafka
.security.protocol&q
浏览 1
提问于2022-03-12
得票数 0
回答已采纳
点击加载更多
相关
资讯
系统解读Kafka的流和表(二):主题、分区和存储
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
BigQuery如何结合数据与AI实现企业转型
从Lambda到无Lambda,领英吸取到的教训
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券