Skip to content

Latest commit

 

History

History
237 lines (139 loc) · 5.66 KB

Spark高可用部署.md

File metadata and controls

237 lines (139 loc) · 5.66 KB

Spark 高可用部署

首先下载 Spark 二进制文件:

$ wget https://mirror.bit.edu.cn/apache/spark/spark-2.4.5/spark-2.4.5-bin-hadoop2.7.tgz

解压并重命名:

$ tar zxvf spark-2.4.5-bin-hadoop2.7.tgz 
$ sudo mv spark-2.4.5-bin-hadoop2.7/ /opt/spark

配置修改

$ mv conf/spark-env.sh.template conf/spark-env.sh

添加如下配置:

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER  -Dspark.deploy.zookeeper.url=fueltank-1:2181,fueltank-2:2181,fueltank-3:2181  -Dspark.deploy.zookeeper.dir=/spark"

修改 /etc/profile ,添加以下内容:

export SPARK_HOME=/opt/spark
export PATH=$PATH:$SPARK_HOME/bin

使之生效:

$ source /etc/profile

启动一个 Master 和多个 Worker

设置 Slave 即 Worker 所在的节点:

$ mv conf/slaves.template conf/slaves

conf/slaves 添加以下内容:

fueltank-1
fueltank-2
fueltank-3

启动一个 master 和多个 worker:

$ ./sbin/start-all.sh 

./sbin/start-all.sh 的内容如下:

if [ -z "${SPARK_HOME}" ]; then
  export SPARK_HOME="$(cd "`dirname "$0"`"/..; pwd)"
fi

# Load the Spark configuration
. "${SPARK_HOME}/sbin/spark-config.sh"

# Start Master
"${SPARK_HOME}/sbin"/start-master.sh

# Start Workers
"${SPARK_HOME}/sbin"/start-slaves.sh

返回如下:

starting org.apache.spark.deploy.master.Master, logging to /opt/spark/logs/spark-admin-org.apache.spark.deploy.master.Master-1-fueltank-1.cloud.bbdops.com.out
localhost: Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
localhost: starting org.apache.spark.deploy.worker.Worker, logging to /opt/spark/logs/spark-admin-org.apache.spark.deploy.worker.Worker-1-fueltank-1.cloud.bbdops.com.out

在这个日志文件中,有一条日志,如下:

2020-05-18 17:06:44,977 INFO master.Master: Starting Spark master at spark://fueltank-1.cloud.bbdops.com:7077

打开界面 http://fueltank-1:8081/ 如下:

image-20200518171925628

使用 spark-shell 连接 master:

$ MASTER=spark://fueltank-1.cloud.bbdops.com:7077 ./bin/spark-shell

如果这时候再执行:

$ ./sbin/stop-all.sh 

会发现 spark-shell 端掉了。

Master 高可用

重新启动上面的 start-all.sh 之后。

再从另外一台机器上启动一个 Master:

$ ./sbin/start-master.sh

这时候再运行:

$ MASTER=spark://fueltank-1.cloud.bbdops.com:7077 ./bin/spark-shell

再从第一台上停掉 master:

./sbin/stop-master.sh 

这时saprk-shell花费了30秒左右的时候切换到bigdata002 上的Master了。

并且通过 http://fueltank-2:8081/ 查看第二台的状态,已经变成 Alive 了。

image-20200518175911902

设计理念

为了解决Standalone模式下的Master的SPOF,Spark采用了ZooKeeper提供的选举功能。Spark并没有采用ZooKeeper原生的Java API,而是采用了Curator,一个对ZooKeeper进行了封装的框架。采用了Curator后,Spark不用管理与ZooKeeper的连接,这些对于Spark来说都是透明的。Spark仅仅使用了100行代码,就实现了Master的HA。

高可用部署总结

通过以上实践。可以使用 ZooKeeper 配置来保证 Master 的高可用。然后在启动 Slave ,即启动 Worker 节点时,可以使用以下方式启动:

$ ./sbin/start-slave.sh spark://fueltank-2.cloud.bbdops.com:7077

这样,就可以把 worker 节点连接到 master 了,即使这个master 挂了,这些 worker 节点也会连接到其他 master。这样就实现了高可用!!!

跑一个 Demo

代码如下:

package com.bbd.spark;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function;

public class Main {

    public static void main(String[] args) {
        String logFile = "/user/admin/bbd.txt";
        SparkConf conf = new SparkConf().setAppName("Simple Application");
        JavaSparkContext sc = new JavaSparkContext(conf);
        JavaRDD<String> logData = sc.textFile(logFile).cache();

        long numAs = logData.filter((Function<String, Boolean>) s -> s.contains("a")).count();
        long numBs = logData.filter((Function<String, Boolean>) s -> s.contains("b")).count();

        System.out.println("Lines with a: " + numAs + ", lines with b: " + numBs);
    }
}

使用 Gradle 打成 jar 包时,不必指定主类,也不必把依赖都打入 jar 包。

这里的 logFile ,如果使用的是 master 是 local,则从本地文件系统里找,如果 master 是 spark,则会从 hdfs 里找。

使用 Gradle 将代码打成 Jar 包,然后丢到服务器中,然后执行:

$ spark-submit --class com.bbd.spark.Main --master spark://fueltank-1:7077 --deploy-mode cluster /home/admin/spark-app/spark-demo-1.0-SNAPSHOT.jar

如果是多个 master 可以这样:

$ spark-submit --class com.bbd.spark.Main --master spark://fueltank-1:7077,fueltank-2:7077 --deploy-mode cluster /home/admin/spark-app/spark-demo-1.0-SNAPSHOT.jar

这时会出现一个问题,必须把这个 jar 包放到所有 worker 节点下面才行,否则会报找不到 jar 包。

为了解决这一问题,可以把 jar 包放到 HDFS:

$ hdfs dfs -put spark-app/ /user/admin

然后执行:

$ spark-submit --class com.bbd.spark.Main --master spark://fueltank-1:7077,fueltank-2:7077 --deploy-mode cluster hdfs://fueltank-1:9000/user/admin/spark-app/spark-demo-1.0-SNAPSHOT.jar