乐知付加密服务平台

如果你有资源, 平台可以帮你实现内容变现, 无需搭建知识付费服务平台。

点击访问官方网站 https://lezhifu.cc

扫码关注公众号 乐知付加密服务平台-微信公众号
spark基于zookeeper的高可用搭建 | chenzuoli's blog

spark基于zookeeper的高可用搭建

spark提供服务时,master的角色非常的重要,它负责任务分发、任务调度,可谓任重道远啊,所以我们要对master做高可用,基于zookeeper的高可用,可以自动实现master挂掉后备用的master启动,堆外提供服务。

节点分布:

zookeeper: node1 node2 node3
spark: node1 node2 node3 node4

编辑SPARK_HOME/conf/spark-env.sh

注释掉HADOOP_CONF_DIR,添加SPARK_DAEMON_JAVA_OPTS,其他配置不变。

1
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=node1:2181,node2:2181,node3:2181 -Dspark.deploy.zookeeper.dir=/spark20170302"

同步该配置文件spark-env.sh到其他节点

1
2
3
scp spark-env.sh root@node2:$SPARK_HOME/conf
scp spark-env.sh root@node3:$SPARK_HOME/conf
scp spark-env.sh root@node4:$SPARK_HOME/conf

在node2节点上编辑spark-env.sh,将SPARK_MASTER_HOST修改为node2

1
SPARK_MASTER_HOST=node2

启动spark服务

在node1节点上启动spark集群

1
$ ./sbin/start-all.sh

启动另一个master

在node2节点上只启动master

1
$ ./sbin/start-master.sh

访问webUI查看启动情况

如果配置正确,启动正常,那么master会有两个(node1, node2),一个为ACTIVE状态,一个为STANDBY状态。


书山有路勤为径,学海无涯苦作舟。

欢迎关注微信公众号:【程序员写书】
程序员写书

喜欢宠物的朋友可以关注:【电巴克宠物Pets】
电巴克宠物

一起学习,一起进步。

-------------本文结束感谢您的阅读-------------