我使用的是星星之火-SQL2.4.1v和java1.8。: Required attribute 'value' not found; at org.apache.spark.sql.kafka010.KafkaWriter$$anonfun$6.apply(KafkaWriter.scala:71)
因此,我需要创建一个从1到100的数字数组,作为每一行的值,作为一个额外的列。使用带有大量文字值的array()函数可以工作,但是确实有一种方法可以使用/转换Scala Range(a to b),而不是单独列出每个数字?spark.sql("SELECT key FROM schema.table") .withColumn("range