Spark Streaming与Kafka整合主要是用来处理流计算,根据设置的时间窗口大小,每隔一段时间批量处理一次。本篇我们将介绍Spark Streaming与Kafka的整合。
一,环境准备:
1. pom.xml
2. 配置kafka.properties:
b
3. 常量KafkaConfigConsts:
4. 读取配置的工具类KafkaPropertiesUtils:
5. 主类SparkKafkaApp:
二, 测试
我们给主题beardata发送消息: hello,beardata
在控制台我们接收到了来自beardata的消息
以上就是Kafka与Spark Streaming的整合,下一篇我们将介绍Kafka技术内幕之日志存储。
领取专属 10元无门槛券
私享最新 技术干货