我有一个Python脚本,它循环遍历文件夹,并在每个文件夹中对我们的Redshift集群执行sql文件(使用psycopg2)。以下是执行循环的代码(注意:这对于只需要几分钟执行的查询就可以很好地工作): #Each query is stored in a folderdest_filename = dest_dir_wkly + "\\" + os.path.splitext(os.path.basename(src_filename))[0
我是一个数据砖的新手,尝试使用下面的命令将结果写入excel/ CSV文件,但在执行时得到DataFrame' object has no attribute 'to_csv'错误。我正在使用笔记本来执行SQL查询,现在我希望将结果存储在CSV或excel文件中。%python
df =spark.sql ("""select