首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

FlinkKafkaKafka

功能说明 1.生成json格式数据写入kafka topic1 2.消费topic1中的消息,写入topic2 目的很简单,如果要落地到具体业务免不了需要做多次的数据处理,Flink虽说是可以做批处理,...但是支持得最好的还是流数据,确切的说是kafka的数据,跑通了这个流程,实际上Flink的落地就只差业务逻辑了,现在有Flink SQL,实现业务逻辑也是分分钟的事。...代码 其实只有4个文件 ├── flink-learn-kafka-sink.iml ├── pom.xml └── src ├── main │   ├── java │  ...>flink-connector-kafka-0.11_${scala.binary.version} ${flink.version...; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer011

3.2K00
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Flink消费kafka消息实战

    本次实战的内容是开发Flink应用,消费来自kafka的消息,进行实时计算; 环境情况 本次实战用到了三台机器,它们的IP地址和身份如下表所示: IP地址 身份 备注 192.168.1.104 http...、消息生产者(接收http请求时生产一条消息) 192.168.1.102 Flink应用 此机器部署了Flink,运行着我们开发的Flink应用,接收kafka消息做实时处理 注意: 本文的重点是Flink...JDK:1.8.0_191 spring boot:1.5.9.RELEASE spring-kafka:1.3.8.RELEASE Flink:1.7 在机器192.168.1.101上部署三个容器...打开工程的pom.xml文件,增加以下两个依赖: org.apache.flink flink-connector-kafka...至此,Flink消费kafka消息的实战就全部完成了,本次实战从消息产生到实时处理全部实现,希望在您构建基于kafak的实时计算环境时可以提供一些参考;

    5.2K31

    Flink学习笔记(8) -- Flink Kafka-Connector详解

    Kafka中的partition机制和Flink的并行度机制深度结合   Kafka可以作为Flink的source和sink   任务失败,通过设置kafka的offset来恢复应用 setStartFromGroupOffsets...当job失败重启的时候,Flink会从最近一次的checkpoint中进行恢复数据,重新消费kafka中的数据。   ...表示在checkpoint的时候提交offset, 此时,kafka中的自动提交机制就会被忽略   如果Flink开启了checkpoint,针对FlinkKafkaProducer09 和FlinkKafkaProducer010...生产者的重试次数 retries【这个参数的值默认是0】   如果Flink开启了checkpoint,针对FlinkKafkaProducer011 就可以提供 exactly-once的语义...具体的可以参考官方文档 https://ci.apache.org/projects/flink/flink-docs-release-1.6/dev/connectors/kafka.html ?

    1.1K20
    领券