此zip文件夹位于Azure Data Lake Storage上,并使用服务原则将其挂载在DBFS Databricks文件系统上。当使用普通的python代码解压6 6GB的文件时,我得到了1.98 6GB的解压文件。 请建议一种直接读取txt文件并将其存储为spark Dataframe的方法。我尝试过使用</em
主要是因为我在Azure Databricks上遇到了这个错误。 我正在尝试读取位于ADLS管理区域上的Excel文件。大约有25个excel文件。我的程序遍历excel文件,并将它们读取到PySpark数据帧中。然而,在阅读了大约9个excel文件后,我收到以下错误- Py4JJavaError: An error occurred while