00:00
好,接下来呢,我们看最后一张第七章,那这里面呢,是安装这个Spark,那Spark这里面啊,默认的这个CDH5.1 2.1,它的还多版本呢,是1.6,那真正的在企业开发当中呢,我们需要呢,都是2.0以上的,那比如说这个2.1在企业当中是大量使用的,那怎么办呢?那同样的是我们采用这种离线库的这个方式,把对应的2.1这个安装包提前下载好,呃,下载好之后,然后我们把它上传到这个cloud cloud manager啊,对应的这个需要的目录啊,它就能检索到,然后呢就能相应的安装了哈,那首先第一步需要把这个架包放到o BT clouder cid这个目录啊,跟我们之前安装卡夫卡啊,离线安装的时候是一样的哈,那我们来具体操作一下。Cdd cloud csd这个目录,然后把卡夫卡的包拿过来。
01:02
Chd啊,是Spark的包哈,Spark的这个价包扔过来好,它搞定之后,接下来我们要把剩下的两个包传到哪呢?也是要把这两个包传入到OT cloud parcel。Cdd cloud paro杠啊,想到这个路径下。OK,拖拽过来。CDBD。Cloud parle,诶来到这里面,那这里面呢,就有这两个文件了,那这两个文件同样是要把这个S1改成S目SPA点。Spark点改成上,那得看一下这边拷贝没拷贝完成,拷贝完成了执行,那这样的这个名称我们也改过来了哈,好继续按文档走,那这块呢是上传修改名称,接下来呢,就来到这个页面操作,那页面的话。
02:12
来到这儿,首先点击主机拍。之后你这一块你看一下默认的这个是Spark啊,Spark那你要改一下检查。新的派,嗯,那这块呢,需要点时间哈,别着急啊,多联系一下。好,那目前呢,有没有,诶多了一个吧,这里面就多了一个SPARK2看啊八二点击分配。需要花费点时间啊,正在分配。
03:15
OK,分配完成之后点击激活,确定。OK,那这边已经激活了哈,那我们看一下文档已经到哪了,检查更新,点击分配,点击激活,然后回到首页,开始添加Spark这个对应的服务哈,那我们回来。回到首页。找到Spark Spark。
04:02
嗯,添加啊添加服务。找到SPASPA上面这个对吧,不是alone这个,嗯,继续。点击继续。好,点击继续。开始启动哈。嗯,你可以过着这个文档啊,一点点往下走部署完成,那如果报错的话,你可以按照这个错误问题去解决哈,其实是一个环境变量的问题。别着急。看一下他的启动情况。哎,那目前的这个Spark呢,就已经启动起来了,继续。完成。哎,那下面呢,这个Spark呢,就就有了哈。
05:01
好,那致使呢,这个Spark呢,这个安装就已经搞定了哈,那我们。回顾一下啊,其实呢,我们整个这个书仓呢,就讲了这个七章的那个内容啊,七章内容呢,分别是这个,呃,Cloud整个的一个安装。之后数据采集模块,数据采集模块里面涉及到APS、雅N主keepper啊,然后等领域一系列的安装之后来到数仓这一块,那这里面输仓环境准备需要我们安装have wi he啊这三个组件哈,之后呢是来到这个第四章,第四章这里面就是整个用一个日活啊,贯穿整个用户行为输仓,第五章是业务受仓,那这里面增加了一个组件是SCO啊,以及这个物G的一个调度使用,那第六章呢是这个机器查询,也就说基于帕实现这个机器查询啊,第七章呢,就是这个整个Spark2.1的一个安装使用,因为默认呢它是1.6啊。
我来说两句