中的Redshift database。user=user&password=password").load()org.apache.spark.sql.AnalysisExceptionIt must be specified manually.;
我不确定在读取数据时是否指定了正确的format。我也读到过spark-redshift driver是可用的,但
从Azure Data Factory生成拼图文件(复制活动-从Azure SQL复制到数据湖中的拼图)。当我尝试从蜂窝中读取相同的拼图时,它给出了错误,因为org.apache.parquet.io.ParquetDecodingException:无法读取块中0的值。如果你使用Spark生成拼图,那么你可以设置Spark.sql.parquet.writeLegacyForma