我需要从Spark数据框中获取最小值并对其进行转换。目前,我只是获得这个值并使用DateTime对其进行转换,但是,我需要将其转换为unix_timestamp格式的结果。那么,如何使用Scala函数或Spark函数将DateTime转换为unix_timestamp呢?下面是我当前返回DateTime的代码: val minHour = new DateTime(df.agg(m
我正在尝试获取列中的最大值,并编写了以下代码。val max = df.withColumn("max", lit(df.agg(max($"id")).as[Int].first))error: recursivevalue max needs type
val max = df.withColumn("max", lit(df.agg(max($"id&