我有一个字符串列作为分区,它有日期值。我的目标是将该列的最大值作为筛选器引用。这些值类似于2019年1月1日的2019-01-01。在这个查询中,我试图过滤到某个日期值(这是一个字符串数据类型),而Spark最终读取所有目录,而不仅仅是结果max(value)。spark.sql("select mypartitioncolumn, column1, column2 from mydatabase.mytable where mypartitioncolumnspark.sql("select mypa
我有代码的一部分,它检查为零,并传递或失败。f_query = "select case when count(*)=1 then 'Pass' else 'Fail' end result"f_query += " where "+ row.Field_NAME + "=0"
如何在这段代码中包含另一个where语句,其中我需要从包含l=