我正在尝试创建一个气流(1.10.9)样条,我使用的是对接器映像(我正在使用本地,所有事情都很好,直到我试图导入。)from airflow.contrib.operators.bigquery_to_gcs import BigQueryToCloudStorageOperator Traceback6, in <module> from airflow.contrib.operators.bigquery_to_gcs import
尝试下面的示例:
airflow test bigquery_github_trends_v1 bq_check_githubarchive_day 2017-06-02[2017-09-11 16:32:26,631] {models.py:1126} INFO - Dependencies all met for <TaskInstance: bigquery_github_trends_v1/contrib/hooks/bigq
我认为另一种方法可能是在更大的驱动程序进程中使用这个参数化的dag作为子dag。但同样不确定这是否是最佳实践方法。### My first dag to play around with bigquery and gcp stuff.from airflow.operators.bash_operatorimport BigQueryHook
from airf
我正在使用气流中的BigQueryCreateEmptyTableOperator在BigQuery项目中创建表。一切都很好,除了分区表。()传递给time_partitioning参数时,我会得到以下完全无意义的错误消息:
google.api_core.exceptions.BadRequest: 400 POST https://bigquery.googleapis.com/bigquery/v2/projects/MY_PROJECT&