在亚马逊网络服务的文档中,他们指定了如何激活对Spark作业()的监控,但不是python外壳作业。使用原样的代码会给出这个错误:ModuleNotFoundError: No module named 'pyspark'
更糟糕的是,在注释掉from pyspark.context import SparkContextpython shell作业似乎不能访问glue上下文?
可以使用dbutils在notebooks中访问Databricks密钥,但是,由于dbutils在notebooks之外不可用,因此如何在pyspark/python作业中访问密钥,特别是当它们使用我已经试过How to load databricks package dbutils in pyspark了 它不适用于远程作业或mlflow项目运行。