我正在Scala中构建一个Apache应用程序,它从Kafka总线读取流数据,然后对其执行汇总操作。Kafka的数据是Avro格式的,需要一个特殊的反序列化类。我找到了这个scala类AvroDeserializationScehema ():import org.apache.avro.io.BinaryDecoder/** Case class to hold
我正在尝试使用Scala的case类构建一个数据集(我希望在元组上使用case类,因为我希望按名称连接字段)。$.ensureSerializable(ClosureCleaner.scala:179) at org.apache.flink.api.scala.ClosureCleaner$.clean(ClosureCleaner.scala:171) at org.apache.fli
我正在尝试修改一个case类,它有大约240个变量,其中一些是我定义的其他pojos : Signal (case类)有变量PowerPojoFeature,UserFeature。当我修改任何pojo添加新变量时,它会抛出exception rg.apache.flink.util.StateMigrationException下面:操作符typeSerializer的新状态state在org.apache.flink.runtime.state.DefaultOperatorStat
我是flink和Kafka的新手。我正在尝试使用Confluent Schema注册表对avro数据进行反序列化。我已经在ec2机器上安装了flink和Kafka。Magic number does not match
at org.apache.flink.formats.avro.registry.confluent.ConfluentSchemaRegistryCoder.readSchema(ConfluentSchemaRegistr