Apache Kafka是一个分布式流处理平台,它可以处理和存储大规模的实时数据流。使用Java从Apache Kafka开始使用所有消息可以通过以下步骤实现:
bin/kafka-topics.sh --create --topic mytopic --bootstrap-server localhost:9092 --partitions 1 --replication-factor 1
。import org.apache.kafka.clients.producer.*;
import java.util.Properties;
public class KafkaProducerExample {
public static void main(String[] args) {
String topicName = "mytopic";
String bootstrapServers = "localhost:9092";
Properties props = new Properties();
props.put("bootstrap.servers", bootstrapServers);
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
Producer<String, String> producer = new KafkaProducer<>(props);
try {
for (int i = 0; i < 10; i++) {
String message = "Message " + i;
producer.send(new ProducerRecord<>(topicName, message), new Callback() {
@Override
public void onCompletion(RecordMetadata metadata, Exception exception) {
if (exception != null) {
exception.printStackTrace();
} else {
System.out.println("Sent message: " + message);
}
}
});
}
} catch (Exception e) {
e.printStackTrace();
} finally {
producer.close();
}
}
}
import org.apache.kafka.clients.consumer.*;
import org.apache.kafka.common.TopicPartition;
import java.util.Collections;
import java.util.Properties;
public class KafkaConsumerExample {
public static void main(String[] args) {
String topicName = "mytopic";
String bootstrapServers = "localhost:9092";
String groupId = "mygroup";
Properties props = new Properties();
props.put("bootstrap.servers", bootstrapServers);
props.put("group.id", groupId);
props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
Consumer<String, String> consumer = new KafkaConsumer<>(props);
consumer.subscribe(Collections.singletonList(topicName));
try {
while (true) {
ConsumerRecords<String, String> records = consumer.poll(100);
for (ConsumerRecord<String, String> record : records) {
System.out.println("Received message: " + record.value());
}
}
} catch (Exception e) {
e.printStackTrace();
} finally {
consumer.close();
}
}
}
这样,您就可以使用Java从Apache Kafka开始使用所有消息了。您可以根据实际需求进行进一步的开发和扩展,例如使用Kafka Streams进行流处理、使用Kafka Connect进行数据集成等。
云+社区技术沙龙[第7期]
云+社区技术沙龙[第1期]
云+社区技术沙龙 [第30期]
Elastic 中国开发者大会
北极星训练营
云+社区技术沙龙[第9期]
Elastic 中国开发者大会
Elastic 中国开发者大会
云+社区技术沙龙[第10期]
领取专属 10元无门槛券
手把手带您无忧上云