我正在使用CloudComposer环境在GCP项目中运行工作流。我的一个工作流使用DataprocClusterCreateOperator在不同的项目中创建了一个Dataproc集群,然后尝试使用来自airflow.contrib.operators.dataproc_operator模块的DataProcPySparkOperator向该集群提交PySpark作业。例如,我希望能够传递一个project_id,但当任务运行时,我最终得到了一个404错误: from airflow.contrib.
我正在尝试挂载dags文件夹,以便能够在Aiflow上的KubernetesPodOperator中运行python脚本,但我不知道怎么做。在生产中,我想在谷歌作曲家。这是我的任务: task_id='pod-ex-minimum', arguments=["cd /usr/local/tmp"], ima
我正在尝试使用CloudComposer来运行我的工作流。我想使用Airflow v1.10提供的"GoogleCloudStorageToGoogleCloudStorageOperator“operator,但当前的cloudcomposer不支持它(它目前只支持在Google's blog post的指导下,我自己将operator添加到了一个cloudcomposer环境中,直到几天前它还运行得很好。然而,就目前而言,当我尝试创建一个新