什么是Airflow
Airflow是Airbnb开源的data pipeline调度和监控工作流的平台,用于用来创建、监控和调整data pipeline(ETL)。
简单的定时任务cron
假设我们想要定时调用一个程序,比如说:每天定时从Web抓数据,我们可以使用cron。cron是一个Linux下的后台服务,用来定期的执行一些任务,在/etc/crontab中设置后即可,基本写法如下:
它的意思是每个小时的第18分钟,将当前时间写入log文件,注意各值的取值范围(分钟 0 - 59,小时0 - 23,天1 - 31,月1 - 12,星期0 - 6,0表示星期天) 修改/etc/crontab后,还需要用 $ sudo service cron restart命令重启crontab任务,才能生效。
为什么要用Airflow
有了cron为什么还需要airflow?以抓取web数据为例,可能在某天抓取数据时,网断或者关机了,当天的数据没抓进来,这种情况下,只能通过写日志定时分析日志,以及在程序中定时重连的方式保证数据完整,相对比较零碎和麻烦。另外,如果crontab设置文件中有几十上百条任务时,就比较头疼了。
Airflow支持图形界面和命令行两种方式,管理起来比较方便,另外,它可以把几个相互依赖的任务编成一组,并监督执行是否正常,如果不正常,调用程序重试等等。
当然,Airflow也不全是优点,比如需要使用python脚本来定义任务间的依赖关系,相对于手动编辑crontab文件,相对难一些。因此,如果只调用简单的任务,使用cron即可,复杂的再考虑airflow。
Airflow的基础概念
Airflow 中最基本的两个概念是:DAG 和 task。DAG 的全称是 Directed Acyclic Graph 是所有你想执行的任务的集合,在这个集合中可以定义了他们的依赖关系,一个 DAG object可以用 Python 脚本中配置完成。每个 DAG object 代表了一个 workflow,每个 workflow 都可以包含任意个 task,task就是具体的任务。
Airflow安装和使用
(1) 安装airflow
可以通过环境变量AIRFLOW_HOME 设置airflow的工作目录,默认为$HOME/airflow/
(2) Mysql支持
如果想使用mysql存储airflow内容,请按如下方法设置mysql;如果不设置,airflow在其工作目录下建立db文件,以sqlite方式存储。
修改配置文件 $AIRFLOW_HOME/airflow.cfg,把sql_alchemy_conn对应语句替换成:
(3) 运行
此时在浏览器中输入:http://localhost:8080,即可看到airflow界面,其中有很多demo可以参考。
(4) 建立第一个DAG:Hellow world
保存之后,再浏览器刷新一下界面,即可在list中看到该DAG,点On后,即可运行。
点开DAG可以看到各Task间的依赖关系
以及树型关系
(5) 调试
有时候,怕不能一次写对,可以运行以下命令调试单个Task
(6) 清除全部DAG重置数据库
并删除 $AIRFLOW_HOME/dags/ 下所有DAG文件,然后重启webserver。
在Airflow中,如果改了一个DAG的名字,它会新建一个DAG,而不仅是改名,所以旧的DAG还在数据库和列表中存在,可以用 “$ airflow delete_dag DAG名” 的方式删除它,但不是每个airflow版本都支持delete_dag命令。此时可以只用resetdb不删除dags目录下文件的方式,删除目录中没有对应文件的DAG(删除有风险,操作须谨慎)。
参考
(1) Ubuntu下crontab命令的用法
https://www.cnblogs.com/daxian2012/articles/2589894.html
(2) 使用 Airflow 替代你的 crontab
https://www.juhe.cn/news/index/id/2365
搜索添加公众号:算法学习分享
领取专属 10元无门槛券
私享最新 技术干货