Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Spark集群安装方式2 原

Spark集群安装方式2 原

作者头像
克虏伯
发布于 2019-05-06 09:49:47
发布于 2019-05-06 09:49:47
34100
代码可运行
举报
运行总次数:0
代码可运行

    环境: jdk1.8、hadoop-2.7、spark-1.6、三台centos7(如下List-1所示)

List-1 如下30上部署master;31上部署worker1;32上部署worker2

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
192.168.33.30 master
192.168.33.31 worker1
192.168.33.32 worker2

    将jdk1.8、hadoop-2.7、spark-1.6文件夹放到三台机器的/opt下

    修改spark的conf下的spark-env.sh文件(如果不存在,则cp  spark-env.sh.template   spark-env.sh),修改为如下List-2,这个修改三台机器上都要做:

List-2

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
export JAVA_HOME=/opt/jdk1.8
export SPARK_DIST_CLASSPATH=$(/opt/hadoop-2.7.7/bin/hadoop classpath);

    为什么List-2中需要将hadoop的classpath加入到其中,是因为spark自1.4之后,编译都是没有将hadoop的classpath编译进去的,所以必须在spark-env.sh中指定hadoop中的所有jar包。

    在master机器上,spark安装目录,执行如下,之后在控制台就会打印出一些日志,从日志中可以看到master url和MasterWebUI

List-3

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/bin/spark-class org.apache.spark.deploy.master.Master

    在worker1/worker2,spark安装目录,执行如下,之后看MasterWebUI就会看到worker加入进去了

List-4

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/bin/spark-class org.apache.spark.deploy.worker.Worker spark://192.168.33.30:7077

    到此我们的集群启动完成了。

    接下来介绍另一种启动方式:

    在master的spark安装目录下,执行如下,查看日志/opt/spark-mjduan/logs/spark-root-org.apache.spark.deploy.master.Master-1-master.out,可以看到master url和masterWebUrl:

List-5

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@master spark-mjduan]# sbin/start-master.sh 
starting org.apache.spark.deploy.master.Master, logging to /opt/spark-mjduan/logs/spark-root-org.apache.spark.deploy.master.Master-1-master.out

    在workerr1/worker2上,spark安装目录,执行如下:

List-6

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@node2 spark-mjduan]# sbin/start-slave.sh spark://192.168.33.30:7077
starting org.apache.spark.deploy.worker.Worker, logging to /opt/spark-mjduan/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-node2.out

       之后看masterWebUrl,可以看到集群信息了。

(adsbygoogle = window.adsbygoogle || []).push({});

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
CentOS7下Spark集群的安装
从物理部署层面上来看,Spark主要分为两种类型的节点,Master节点和Worker节点,Master节点主要运行集群管理器的中心化部分,所承载的作用是分配Application到Worker节点,维护Worker节点,Driver,Application的状态。Worker节点负责具体的业务运行。
栗筝i
2022/12/01
5500
CentOS7下Spark集群的安装
Spark集群安装 原
    Spark的版本1.6.0,Scala的版本2.12,jdk版本1.8。最近使用spark,在这里记录下。
克虏伯
2019/04/15
5140
Spark集群安装
                                                                            原
docker下的spark集群,调整参数榨干硬件
本文是《docker下,极速搭建spark集群(含hdfs集群)》的续篇,前文将spark集群搭建成功并进行了简单的验证,但是存在以下几个小问题:
程序员欣宸
2019/05/29
1.5K0
docker下的spark集群,调整参数榨干硬件
Spark之伪分布式搭建、伪分布式Hadoop、Hive安装
    之后进入$SPARK_HOME/sbin下,执行start-all.sh,可以看下是否启动成功,之后去看localhost:8080,可以看到spark的界面。
克虏伯
2019/04/15
7780
docker搭建spark集群
有个小技巧:先配置好一个,在(宿主机上)复制scp -r拷贝Spark到其他Slaves。
千羽
2023/08/28
6720
docker搭建spark集群
Spark 3.1 Standalone集群搭建
https://www.apache.org/dyn/closer.lua/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz
程裕强
2021/08/13
6670
Spark 3.1 Standalone集群搭建
spark实战之:分析维基百科网站统计数据(java版)
在《寻找海量数据集用于大数据开发实战(维基百科网站统计数据)》一文中,我们获取到维基百科网站的网页点击统计数据,也介绍了数据的格式和内容,今天就用这些数据来练习基本的spark开发,开发语言是Java;
程序员欣宸
2019/05/29
8390
spark实战之:分析维基百科网站统计数据(java版)
Spark安装
我的安装版本是spark-1.6.1-bin-hadoop2.6.tgz   这个版本必须要求jdk1.7或者1.7以上 安装spark必须要scala-2.11  版本支撑    我安装的是scala-2.11.8.tgz  tg@master:/software$ tar -zxvf scala-2.11.8.tgz  tg@master:/software/scala-2.11.8$ ls bin  doc  lib  man 添加环境变量 tg@master:
汤高
2018/01/11
8770
Spark安装
Spark部署
  Spark的部署让人有点儿困惑,有些需要注意的事项,本来我已经装成功了YARN模式的,但是发现了一些问题,出现错误看日志信息,完全看不懂那个错误信息,所以才打算翻译Standalone的部署的文章
岑玉海
2018/02/28
1.2K0
Spark部署
Spark集群中一个Worker启动失败的排错记录
根据/opt/hdSpace/spark/bin/java: No such file or directory,问题定位大致是目录的原因,涉及到jdk的目录,这里将jdk目录解析到了spark目录下,而spark/bin/java中根本没有jdk。
火之高兴
2024/07/25
1710
spark-2.4.0-hadoop2.7-高可用(HA)安装部署 5.1. Spark安装5.2. 环境变量修改5.3. 配置修改5.4. 分发到其他机器5.5.
借助zookeeper,并且启动至少两个Master节点来实现高可靠。
踏歌行
2020/10/15
4730
spark-2.4.0-hadoop2.7-高可用(HA)安装部署
    




        5.1. Spark安装5.2. 环境变量修改5.3. 配置修改5.4. 分发到其他机器5.5.
Spark内核详解 (3) | Spark集群启动流程的简单分析
本片博文主要分析的是Standalone 模式下 Spark 集群(Master, work)启动流程
不温卜火
2020/10/28
8990
Spark内核详解 (3) | Spark集群启动流程的简单分析
spark-2.4.0-hadoop2.7-安装部署 4.1. Spark安装4.2. 环境变量修改4.3. 配置修改4.4. 分发到其他机器4.5. 启动spark
该Spark集群安装,但是有一个很大的问题,那就是Master节点存在单点故障,要解决此问题,就要借助zookeeper,并且启动至少两个Master节点来实现高可靠。具体部署下节讲解。
踏歌行
2020/10/15
7640
spark-2.4.0-hadoop2.7-安装部署
    




        4.1. Spark安装4.2. 环境变量修改4.3. 配置修改4.4. 分发到其他机器4.5. 启动spark
【Spark】集群服务安装
Xiongan-桃子
2023/06/10
1870
【Spark】集群服务安装
【推荐系统算法实战】 Spark :大数据处理框架
http://spark.apache.org/ https://github.com/to-be-architect/spark
一个会写诗的程序员
2019/12/24
1.7K0
【推荐系统算法实战】 Spark :大数据处理框架
Spark集群 + Akka + Kafka + Scala 开发(2) : 开发一个Spark应用
前言 在Spark集群 + Akka + Kafka + Scala 开发(1) : 配置开发环境,我们已经部署好了一个Spark的开发环境。 本文的目标是写一个Spark应用,并可以在集群中测试。 创建一个Scala的工程- SimpleAPP 建一个目录SimpleAPP mkdir SimpleAPP mkdir -p SimpleAPP/src/main/scala 建一个SimpleAPP/src/main/scala/SimpleApp.scala文件 这个程序会进行MapReduce计算,
绿巨人
2018/05/18
7150
原 Spark简介及完全分布式安装
Spark简介及完全分布式安装 一、Spark介绍     官方介绍:      Apache Spark™ is a fast and general engine for large-scale data processing. Spark Introduce     Run programs up to 100x faster than Hadoop MapReduce in memory, or 10x faster on disk.     Apache Spark has an advanced
云飞扬
2018/05/17
7150
Spark集群安装
1,download :http://spark.incubator.apache.org/downloads.html选择prebuilt:中hadoop2的下载,hadoop安装就不介绍了,spark节点可以不是hadoop节点,可以是一个hadoop客户端。
星哥玩云
2022/06/29
2640
Spark集群安装-基于hadoop集群
文章目录 hadoop集群 下载 环境配置 集群配置 测试 hadoop集群 参考使用docker部署hadoop集群-手把手复现 下载 首先查看hadoop版本 hadoop version 下载spark http://spark.apache.org/downloads.html cd /usr/local #yum -y install wget wget https://mirrors.bfsu.edu.cn/apache/spark/spark-3.1.1/spark-3.1
唔仄lo咚锵
2021/12/31
1.4K0
Spark集群安装-基于hadoop集群
Spark远程调试
start-all.sh -> start-master.sh -> start-slaves.sh 1.Master启动的脚本 start-master.sh -> spark-daemon.sh start org.apache.spark.deploy.master.Master 2.Worer的启动过程 salves.sh -> 通过读取slaves, 通过ssh的方式启动远端的worker spark-daemon.sh start org.apache.spark.deploy.w
sparkle123
2018/04/26
1.9K0
推荐阅读
相关推荐
CentOS7下Spark集群的安装
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验