腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Kafka
connect
:
kafka
connect
默认
的
acks
值
是多少
?
我们使用
的
是debezium源连接器。在向
kafka
生成消息时,
acks
1,0
的
默认
值
是多少
?生产者
的
配置- https://docs.confluent.io/current/installation/configuration/producer-configs.html#
acks
浏览 36
提问于2020-07-03
得票数 0
1
回答
无法使用
kafka
的
JdbcSourceConnector从Oracle DB读取数据到
kafka
主题
、
我正在尝试写一个独立
的
java程序使用
kafka
-jdbc-
connect
API来流式传输数据从oracle-table到
kafka
主题。使用
的
接口:我目前正在尝试使用
Kafka
连接器,准确地说是JdbcSourceConnector类。我所做
的
:创建一个JdbcSourceConnector.java类
的
实例,并通过提供Properties对象作为参数来调用该类
的
start(Properties)方法。启动线程后,无法读取&quo
浏览 3
提问于2019-06-12
得票数 0
1
回答
如何在卡夫卡连接连接器com.github.jcustenborder.
kafka
.
connect
.spooldir.SpoolDirCsvSourceConnector?中更新Ack参数
、
、
我尝试使用这个
Kafka
连接器: com.github.jcustenborder.
kafka
.
connect
.spooldir.SpoolDirCsvSourceConnector在
Kafka
集群上公开我没有看到任何关于
Acks
的
参数[2022-02-03 16:03:46,551] INFO ProducerConfig values:
acks
=我试图在我
的
配置中设置ack=1,但它似乎不起作用
浏览 8
提问于2022-02-03
得票数 0
1
回答
使用filebeat输出azure eventhub服务
、
、
、
是否可以通过filebeat.yml文件中文件节拍使用输出作为output.azure,并从本地文件输入,或者我们需要
Kafka
作为输出以将日志注入到eventhub azure。据我所知,只有我能看到
kafka
模块作为输出模块,用于将日志发送到Azure EventHub 和存储帐户是必要
的
,即使是注射?? 谢谢!
浏览 82
提问于2021-10-26
得票数 0
1
回答
使用AWS MSK NOT_ENOUGH_REPLICAS
的
Debezium
、
、
、
我在AWS中有一个正在运行
的
debezium集群,没有问题。我想尝试一下AWS MSK。所以我启动了一个集群。然后我启动了一个EC2来运行我
的
连接器。然后安装confluent-
kafka
sudo apt-get update && sudo apt-get install confluent-platform-2.12
默认
情况下,AWS MSK", "value.converter": "org.apache.
kafka
.<em
浏览 128
提问于2019-12-20
得票数 7
回答已采纳
2
回答
使用docker将
kafka
主题数据写入redis
、
、
、
解释:我想要做
的
是使用docker将卡夫卡主题数据写入redis。他们创建了一个自述文件来指导如何设置
kafka
的
配置: "name" : "RedisSinkConnector1", "connector.class" : "com.
浏览 0
提问于2019-09-15
得票数 1
回答已采纳
1
回答
Kafka
MQTT接收器连接器失败,原因是HashMap不是支持
的
类型
、
、
下面是我
的
Kafka
-MQTT接收器连接器配置 name=anonymousconnector.class=tcp://127.0.0.1:1883 at org.apache.
kafka</e
浏览 32
提问于2021-07-23
得票数 0
回答已采纳
1
回答
Kafka
/Confluent: ProducerConfig使用docker镜像更改
默认
max.request.size
、
、
源进程由使用source
Connect
Api
的
管理,并使用扩展Confluent
Connect
docker镜像
的
Mesos (DC/OS)部署在我们
的
系统上。
Kafka
本身使用框架版本部署在相同
的
DC/OS上。由于我们有一些大于
默认
大小
的
消息,我已经更改了这些
kafka
安装参数:·message.max.bytes 两者均为4MB。=41
浏览 0
提问于2017-10-09
得票数 3
1
回答
是否可以在生产者配置之外设置'
acks
‘(确认)属性
、
需要帮助理解
Kafka
中
的
'
acks
‘属性,该属性在生产者配置中。 假设我错过了在producer类中传递'
acks
‘属性。然后,
默认
情况下,
Kafka
认为它是‘ack =0’。现在假设我需要有'
acks
=all‘,这样它才能保证我
的
消息传递到
Kafka
broker。有没有什么方法可以确保server.properties文件中
的
任何设置都是
默认
的
‘
浏览 8
提问于2019-09-19
得票数 1
2
回答
是否有一种方法来配置
kafka
-连接jmx度量,以便使用jmx_ there /prometheus捕获?
、
、
、
我只能修改
connect
-distributed.sh以启用更改。任何指针都是一个很好
的
补充。对
kafka
-run-class.sh进行了修改,使jmx_exporter能够在http://<host>:9304/metrics上发出jmx指标。
浏览 0
提问于2019-07-01
得票数 1
1
回答
如何使用debezium mysql连接器
kafka
进行初始快照加载?
、
、
、
我正在使用
Kafka
集群和Debezium MySql连接器从数据库更新到Elasticsearch中获取消息。有一段时间,我在做一些测试,最后得到了一个混合
的
ES,所以我想对Elasticsearch做一个新
的
满负荷测试。此时,我将手动删除连接器和创建
的
主题并重新创建它们,这样它就可以像最初那样加载,但是对于如何在正确
的
步骤中执行这个清理过程有任何想法吗?
浏览 5
提问于2020-04-07
得票数 3
1
回答
Kafka
Connect
JDBC在JsonConverter上失败
、
我正在设计一个MySQL -> Debezium ->
Kafka
-> Flink ->
Kafka
->
Kafka
Connect
JDBC -> MySQL。下面是我在Flink上写
的
示例消息(我也尝试过使用
Kafka
控制台生产者) { "type": "struct", {at org
浏览 70
提问于2019-02-27
得票数 0
回答已采纳
2
回答
舵图失败并有所需价值
、
、
为了测试
的
目的,并找出我的确切错误,我没有使用我
的
访问密钥和秘密访问密钥
的
秘密。由于错误,我
的
舵图失败了:Error: releaseloping-grizzly failed: Deployment.apps "
kafka
-
connect
" is invalid: s
浏览 0
提问于2018-10-22
得票数 4
回答已采纳
1
回答
启用SSL、SSL或SASL_SSL时GCS连接器失败
、
、
、
、
在不启用SASL或SSL
的
情况下,我成功地连接了GCS连接器。当我启用SASL和SSL时,连接独立似乎无法与代理进行通信。- 19091:19091
KAFKA
_BROKER_ID: 1
KAFKA
_ADVERTISED_LISTENERS/secre
浏览 0
提问于2018-12-19
得票数 0
回答已采纳
1
回答
如何自动运行
Kafka
连接连接器(例如在生产中)?
、
、
卡夫卡连接开始时(例如在汇合平台),是否有自动加载(多个)
Kafka
连接连接器
的
方法?到目前为止我发现
的
是:是否还有另一种方法,例如,将所有的连接器都包含在“
Connect
-独立
的
\\Distributed.properties”文件中(类似于在KSQL -server.properties中提供ksql查询文件),以便
浏览 2
提问于2019-06-06
得票数 5
1
回答
将
Kafka
Connect
JMX指标报告到Datadog中
、
、
、
、
我正在工作赢得了一个涉及卡夫卡连接
的
项目。我们有一个运行在Kubernetes上
的
Kafka
Connect
集群,一些Snowflake连接器已经启动并工作。我们现在遇到
的
问题是试图从
Kafka
Connect
集群中获取JMX指标以在Datadog中报告。根据我对文档(https://docs.confluent.io/home/
connect
/monitoring.html#using-jmx-to-
浏览 40
提问于2021-07-08
得票数 0
1
回答
利用IP地址访问远程主机中
的
Kafka
、
、
、
我有一个接口程序-E29,其中我运行了动物园管理员、
Kafka
、
Kafka
Connect
和KafDrop,问题是,当我在本地运行时,我可以从我
的
Spring Boot<code>E 29</code>我需要
的
是在Linux机器上运行相同
的
配置,并能够以同样
的
方式从Spring应用程序连接。:
kafka
:29092networks: driv
浏览 1
提问于2020-12-07
得票数 3
3
回答
如何将kubernetes服务端IP传给
KAFKA
广告听众
、
我使用
的
对接图像是confluentinc/cp-
kafka
:latest。它需要
KAFKA
_ADVERTISED_LISTENERS环境变量,它允许卡夫卡客户端与代理进行通信。如果我使用localhost作为这个
值
,它只在本地
的
Kafka
broker pod中工作,但是对于kubernetes集群中
的
某些
Kafka
客户端荚无法与它通信。如果我使用
的
是来自kubectl get endpoints -l app=
k
浏览 1
提问于2018-04-29
得票数 3
3
回答
使用docker-compose设置
Kafka
、
、
、
我已经成功地使用发布
的
融合图像设置了Zookeeper和
Kafka
,请参阅以下docker-compose文件: zookeeper: image: confluentinc/cp-
kafka
-
connect
:3.2.0 depends_on:}:9092,我已经成功地将
Kafka
容器正确地
浏览 0
提问于2017-03-27
得票数 19
1
回答
使用ksqlDB使用Docker Compose创建
Kafka
-
Connect
集群
、
、
我主要想做
的
是使用Docker Compose拥有多个
Kafka
Connect
实例。我想让ksqlDB使用这个集群。目前,它们都在一台机器上运行,但最终我希望将其部署到多节点环境中。我
的
问题是ksqlDB显然找不到
Kafka
Connect
集群。还有KSQL_KSQL_
CONNECT
_URL,代表单个
Kafka
Connect
实例
的
URL。如果不提供此变量,则会产生
默认
值
,即lo
浏览 5
提问于2021-05-13
得票数 0
点击加载更多
相关
资讯
Kafka 1.0.1案例详解之Kafka Connect
打造实时数据集成平台 DataPipeline基于Kafka Connect应用
基于Kafka Connect的应用实践——打造实时数据集成平台
深入理解Kafka Connect:转换器和序列化
基于Kafka Connect的流数据同步服务实现和监控体系搭建
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券