除了我的文件位于Azure Data Lake Gen2,并且我在数据库笔记本中使用pyspark之外,我正在尝试实现与此相同的功能,所以发布Spark dataframe save in single1)这是重命名数据库(Pyspark)写入Azure DataLakeGen2的文件的正确方法吗?如果不是,我还能怎么做呢?
我正在尝试在Databricks中的Python-Notebook中将我自己的日志文件写入Azure Datalake Gen 2。我正试图通过使用Python日志记录模块来实现这一点。 不幸的是,我不能让它工作。不会引发错误,会创建文件夹,但不会创建包含日志记录内容的文件。即使文件存在,也不会向其中写入任何内容。 本地python脚本运行得很好,但我无法在Databricks中运行它。 下面是我的代码: # mount