页面树结构

版本比较

标识

  • 该行被添加。
  • 该行被删除。
  • 格式已经改变。

...

代码块
languagebash
vi /etc/hosts

文件末尾添文件末尾添加(根据实际环境信息设置):

代码块
languagebash
10.10.35.64 10-10-35-64
10.10.35.65 10-10-35-65
10.10.35.66 10-10-35-66
10.10.35.67 10-10-35-67

...

代码块
languagebash
java -version

2.4 安装Spark

...

登陆10-10-35-65(Master)节点操作。

①解压Spark到指定目录

代码块
languagebash
tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz -C /data

②配置Spark从节点列表

代码块
languagebash
cd /opt/spark-3.0.0-bin-hadoop3.2/conf
cp slaves.template slaves
vi slaves

把所有spark worker节点的机器名加到slaves文件中,参考如下:

代码块
languagebash
10-10-35-65
10-10-35-66
10-10-35-67

③将Spark安装包分发到Spark Work节点(10-10-35-66(slave-1)、10-10-35-67(slave-2))

假设当前的系统用户为root命令如下:

代码块
languagebash
scp -r /data

...

/spark-3.0.0-bin-hadoop3.2  root@10-10-35-66:/data/
scp -r /data/spark-3.0.0-bin-hadoop3.2  root@10-10-35-67:/data/

④在Spark Master节点(10-10-35-65(Master))启动Spark集群

代码块
languagebash
cd /data/spark-3.0.0-bin-hadoop3.2/sbin 
./start-all.sh

...