首页
学习
活动
专区
圈层
工具
发布

如何使用Oozie API接口向非Kerberos环境的CDH集群提交Spark作业

作业的方式有多种,前面Fayson介绍了Livy相关的文章主要描述如何在集群外节点通过RESTful API接口向CDH集群提交Spark作业,本篇文章我们借助于oozie-client的API接口向非...Livy相关文章: 《Livy,基于Apache Spark的开源REST服务,加入Cloudera Labs》 《如何编译Livy并在非Kerberos环境的CDH集群中安装》 《如何通过Livy的RESTful...API接口向非Kerberos环境的CDH集群提交作业》 《如何在Kerberos环境的CDH集群部署Livy》 《如何通过Livy的RESTful API接口向Kerberos环境的CDH集群提交作业...2.定义一个Spark Action的workflow.xml文件,内容如下: oozie:workflow:0.5...3.将定义好的workflow.xml文件上传至HDFS的 /user/faysontest/oozie/testoozie目录下 [root@ip-172-31-6-148 ~]# sudo -u faysontest

1.8K70

如何使用Oozie API接口向Kerberos环境的CDH集群提交Shell作业

/oozie/shellaction/lib (可左右滑动) [plz2iq1oak.jpeg] 3.定义一个Shell Action的workflow.xml文件,内容如下: workflow.xml文件同级的lib目录下,并且在代码中不能指定完整的HDFS路径,只需要指定相对路径即可properties.put("exec...", "lib/ooziejob.sh"); 相关Oozie API向集群提交作业文章: 《如何使用Oozie API接口向非Kerberos环境的CDH集群提交Spark作业》 《如何使用Oozie...API接口向非Kerberos环境的CDH集群提交Java作业》 《如何使用Oozie API接口向非Kerberos环境的CDH集群提交Shell工作流》 《如何使用Oozie API接口向Kerberos...环境的CDH集群提交Spark作业》 《如何使用Oozie API接口向Kerberos环境的CDH集群提交Spark2作业》 《如何使用Oozie API接口向Kerberos集群提交Java程序》

1.9K60
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    如何使用Oozie API接口向Kerberos环境的CDH集群提交Spark作业

    作业的方式有多种,前面Fayson介绍了Livy相关的文章主要描述如何在集群外节点通过RESTful API接口向CDH集群提交Spark作业以及《如何使用Oozie API接口向非Kerberos环境的...Livy相关文章: 《Livy,基于Apache Spark的开源REST服务,加入Cloudera Labs》 《如何编译Livy并在非Kerberos环境的CDH集群中安装》 《如何通过Livy的RESTful...API接口向非Kerberos环境的CDH集群提交作业》 《如何在Kerberos环境的CDH集群部署Livy》 《如何通过Livy的RESTful API接口向Kerberos环境的CDH集群提交作业...2.定义一个Spark Action的workflow.xml文件,内容如下: oozie:workflow:0.5...3.将定义好的workflow.xml文件上传至HDFS的 /user/fayson/oozie/testoozie目录下 [b73rpckzqx.jpeg] hadoop fs -mkdir -p /

    2.3K70

    如何使用Oozie API接口向Kerberos环境的CDH集群提交Spark2作业

    集群外的节点向集群提交Spark作业,文章中均采用Spark1来做为示例,本篇文章主要介绍如何是用Oozie API向Kerberos环境的CDH集群提交Spark2作业。...学习本篇知识前必读内容: 《集群安CDH5.12.1装Kudu、Spark2、Kafka》 《如何使用Hue创建Spark1和Spark2的工作流》 内容概述: 环境准备 示例代码编写及测试 总结 测试环境...2.定义一个Spark2 Action的workflow.xml文件,内容如下: oozie:workflow:0.5...认证的AuthOozieClient API接口 由于Oozie默认不支持Spark2作业的提交,因此需要先在Oozie的共享库中安装Spark2的支持 在定义Spark2的workflow.xml时,...Livy并在非Kerberos环境的CDH集群中安装》 《如何通过Livy的RESTful API接口向非Kerberos环境的CDH集群提交作业》 《如何在Kerberos环境的CDH集群部署Livy

    3.7K40

    Oozie多任务串联和定时任务执行?看这篇就懂了!

    写在前面: 博主是一名大数据的初学者,昵称来源于《爱丽丝梦游仙境》中的Alice和自己的昵称。...我希望在最美的年华,做最好的自己! 在上一篇博客中,博主为大家带来了Oozie的简介,以及常用的基础操作,包括使用Oozie调度shell脚本,hive,mapreduce…(?...什么是Oozie?如何使用Oozie?蒟蒻博主带你快速上手Oozie!)。 本篇博客,为大家介绍的则是Oozie的任务串联和任务调度。 ?...来进行配置即可,接下来我们就来看看如何配置Coordinator 来实现任务的定时调度。...根据我们shell脚本设置的内容,再加上在job.properties中设置的2020年6月1日到6月2日期间,每隔一分钟就执行一次。

    1.4K30

    Hadoop 2.0 大家族(三)

    (2)本地模式   此模式是Hive元数据服务依旧运行在Hive服务主进程中,但元数据存储在独立数据库中(可以是远程机器),当涉及元数据操作时,Hive服务中的元数据服务模块会通过JDBC和存储于DB里的元数据数据库交互...② 在Hive里新建member表,并将表6-6中的数据载入Hive里的member表中。...Oozie的工作流必须是一个有向无环图,实际上Oozie就相当于Hadoop的一个客户端,当用户需要执行多个关联的MapReduce(MR)任务时,只需要将MR执行顺序写入workflow.xml,然后使用...④ 编写workflow.xml,完成一次WordCount。 ⑤ 编写workflow.xml,完成两次WordCount,且第一个WC的输出为第二个WC的输入。...(1)编辑文件“examples/apps/map-reduce/workflow.xml”,找到下述内容: mapred.mapper.class<value

    26900

    「EMR 开发指南」之 Oozie 作业调度

    背景本文将使用oozie组件自带的例子,详细介绍如何在oozie workflow上提交一个MapReduce jar。 本文以oozie 4.3.1版本为例。...在EMR中,已经默认给hadoop用户安装了sharelib,即如果使用hadoop用户来提交workflow作业,则不需要再进行sharelib的安装。...NameNode 和 JobTracker(ResourceManager),上面示例中是EMR的默认端口,如不清楚集群的端口,可在hadoop配置文件中的fs.defaultFS(位于core-site.xml...,上传示例中的workflow文件:hadoop fs -copyFromLocal /usr/local/service/oozie/examples/apps/map-reduce/workflow.xml.../user/hadoop/examplesoozie/map-reduce/workflow.xml如要了解workflow文件的详细格式,请参考oozie 官方文档:https://oozie.apache.org

    38120

    Hadoop数据分析平台实战——180Oozie工作流使用介绍离线数据分析平台实战——180Oozie工作流使用介绍

    Workflow规则 workflow任务主要由job.properties、workflow.xml和其他动作需要的资源文件三部分组成,其中job.properties中定义workflow作业的配置信息...,workflow.xml定义作业的执行工作流。...workflow.xml文件是一个有定义规则的xml文件。 workflow.xml配置规则详见:..\文档\workflow.template.xml job.properties配置参考:.....定义shell动作,在服务器的tmp目录下创建一个文件夹。 定义hive动作,执行sql脚本,将数据导入到hive中的表中。 定义mapreduce动作,执行mapreduce任务。...Bundle中不支持它的coordinator应用程序之间的显示依赖关系,如果需要定义这些依赖关系,可以在 coordinator中通过输入输出事件来指定依赖。

    1.4K50
    领券