首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何触发现在预定的oozie作业?

触发现有预定的Oozie作业,可以通过以下步骤完成:

  1. 在Oozie中创建工作流程(Workflow):工作流程是由一系列的动作(Action)组成的有向无环图(DAG),描述了作业的执行流程和依赖关系。可以使用Oozie的工作流程定义语言(Workflow Definition Language)编写工作流程。
  2. 配置调度规则:在Oozie中,可以配置调度规则,以决定何时触发预定的作业。调度规则可以基于时间(定时触发)、数据依赖关系等多种条件来进行配置。
  3. 提交工作流程:将编写好的工作流程提交给Oozie进行调度和执行。可以通过Oozie的命令行工具、Web界面或API进行提交操作。
  4. 监控作业执行状态:可以通过Oozie的监控工具来实时监控作业的执行状态。Oozie会提供作业的执行日志、错误信息等详细信息,便于排查和分析问题。

总结起来,触发现有预定的Oozie作业的步骤包括创建工作流程、配置调度规则、提交工作流程和监控作业执行状态。通过这些步骤,可以实现根据预定的规则自动触发Oozie作业的执行。

请注意,Oozie是Apache软件基金会的开源项目,是一个用于协调和执行大规模数据处理工作流程的工具。如果您需要了解更多关于Oozie的详细信息,可以访问腾讯云文档中有关Oozie的介绍和使用指南: Oozie - 腾讯云文档

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

针对 Hadoop 的 Oozie 工作流管理引擎的实际应用

Apache Oozie 是用于 Hadoop 平台的一种工作流调度引擎。该框架(如图 1 所示)使用 Oozie协调器促进了相互依赖的重复工作之间的协调,您可以使用预定的时间或数据可用性来触发 Apache Oozie。您可以使用 Oozie bundle系统提交或维护一组协调应用程序。作为本练习的一部分,Oozie 运行了一个 Apache Sqoop 作业,以便在 MySQL数据库中的数据上执行导入操作,并将数据传输到 Hadoop 分布式文件系统 (HDFS) 中。可以利用导入的数据集执行 Sqoop合并操作,从而更新较旧的数据集。通过利用 UNIX shell 操作,可从 MySQL 数据库中提取用来执行 Sqoop 作业的元数据。同理,可执行 Java操作来更新 Sqoop 作业所需的 MySQL 数据库中的元数据。

03
  • 基于Hadoop生态圈的数据仓库实践 —— ETL(三)

    三、使用Oozie定期自动执行ETL 1. Oozie简介 (1)Oozie是什么 Oozie是一个管理Hadoop作业、可伸缩、可扩展、可靠的工作流调度系统,其工作流作业是由一系列动作构成的有向无环图(DAGs),协调器作业是按时间频率周期性触发的Oozie工作流作业。Oozie支持的作业类型有Java map-reduce、Streaming map-reduce、Pig、 Hive、Sqoop和Distcp,及其Java程序和shell脚本等特定的系统作业。 第一版Oozie是一个基于工作流引擎的服务器,通过执行Hadoop Map/Reduce和Pig作业的动作运行工作流作业。第二版Oozie是一个基于协调器引擎的服务器,按时间和数据触发工作流执行。它可以基于时间(如每小时执行一次)或数据可用性(如等待输入数据完成后再执行)连续运行工作流。第三版Oozie是一个基于Bundle引擎的服务器。它提供更高级别的抽象,批量处理一系列协调器应用。用户可以在bundle级别启动、停止、挂起、继续、重做协调器作业,这样可以更好地简化操作控制。 (2)为什么需要Oozie

    02

    hadoop记录

    RDBMS Hadoop Data Types RDBMS relies on the structured data and the schema of the data is always known. Any kind of data can be stored into Hadoop i.e. Be it structured, unstructured or semi-structured. Processing RDBMS provides limited or no processing capabilities. Hadoop allows us to process the data which is distributed across the cluster in a parallel fashion. Schema on Read Vs. Write RDBMS is based on ‘schema on write’ where schema validation is done before loading the data. On the contrary, Hadoop follows the schema on read policy. Read/Write Speed In RDBMS, reads are fast because the schema of the data is already known. The writes are fast in HDFS because no schema validation happens during HDFS write. Cost Licensed software, therefore, I have to pay for the software. Hadoop is an open source framework. So, I don’t need to pay for the software. Best Fit Use Case RDBMS is used for OLTP (Online Trasanctional Processing) system. Hadoop is used for Data discovery, data analytics or OLAP system. RDBMS 与 Hadoop

    03
    领券