页面树结构

版本比较

标识

  • 该行被添加。
  • 该行被删除。
  • 格式已经改变。

...

注意
title升级注意事项

版本升级前,请提前备份好数据,避免因为升级问题导致数据异常

一、Smartbi更新war包

获取V10版本的Smartbi安装包。更新的详细方法,请参考:

数据挖掘引擎安装包版本要和smartbi的war包版本一致,更新时需要同步更新Python节点中的引擎包。

...

一、Smartbi更新

向smartbi官方获取V10版本的Smartbi安装包。更新的详细方法,请参考:War包更新方法

二、数据挖掘版本更新

若在smartbi中部署了数据挖掘,则数据挖掘引擎安装包版本要和smartbi的war包版本一致,更新时需要同步更新Python节点中的引擎包。

数据挖掘更新方法请参考:数据挖掘版本更新

三、Spark版本升级

注意
title注意事项

需要使用Smartbi提供的Spark3需要使用Smartbi官方提供的Spark3.1.2安装包部署

1. 停止旧版本Spark

进入spark安装目录,执行命令停止spark2.4服务

代码块
linenumberstrue
cd /data/spark-2.4.0-bin-hadoop2.7/sbin/     #注意进入实际spark部署目录 ./stop-all.sh
注意
title注意事项

注意,如果出现无法停止情况,可以通过jps查看Spark服务(Spark的进程名有Master,Worker,CoarseGrainedExecutorBackend)进程id,然后 kill -9 进程id 

2.配置系统免密登陆

登陆服务器,生成密钥

代码块
languagebash
ssh-keygen

输入ssh-keygen后,连续按三次回车,不用输入其它信息。

复制公钥到文件中:

代码块
languagebash
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys

测试是否设置成功

示例:

代码块
languagebash
ssh root@10-10-204-249

如果不用输入密码,表示配置成功

3.安装Spark

解压Spark到指定目录

代码块
languagebash
tar -zxvf spark-3.1.2-bin-hadoop3.2.tgz -C /data

启动Spark

代码块
languagebash
cd /data/spark-3.1.2-bin-hadoop3.2.tgz/sbin
 ./start-all.sh

4. 检查Spark

在浏览器中输入:http://master节点的ip:8080,查看集群状态

Image Removed

在spark节点提交任务测试进入/data/spark-3.1.2-bin-hadoop3.2/bin目录,执行以下命令(注意将”节点IP”替换对应的IP或主机名)

代码块
./spark-submit --class org.apache.spark.examples.SparkPi --master spark://节点IP:7077 /data/spark-3.1.2-bin-hadoop3.2/examples/jars/spark-examples_2.12-3.0.0.jar 100

Image Removed

运行得出圆周率Pi的近似值3.14即部署成功。

5. 运维操作

启动/停止spark服务

代码块
cd /data/spark-3.1.2-bin-hadoop3.2/sbin
./start-all.sh    #启动spark#注意进入实际spark部署目录
./stop-all.sh    
#停止spark

Spark集群部署参考文档:部署Spark集群

6. Smartbi连接Spark

浏览器访问smartbi,打开系统运维–数据挖掘配置–执行引擎--计算节点配置,参考下图设置,修改完成后点击保存

配置spark计算节点:

Image Removed

配置Spark节点资源,点击一键推荐,系统会根据Spark work节点的服务器资源,生成推荐的配置(如果使用推荐值,记得点击保存,否则配置不生效):

Image Removed

...


注意
title注意事项

注意,如果出现无法停止情况,可以通过jps查看Spark服务(Spark的进程名有Master,Worker,CoarseGrainedExecutorBackend)进程id,然后 kill -9 进程id 

2.部署新版本Spark

向smartbi官方获取新版本spark安装包,详细操作步骤请参考:部署Spark


2、安装Hadoop组件

数据挖掘V10版本增加了Hadoop节点中间数据存储,可根据需要部署。

...

浏览器访问smartbi,打开系统运维--数据挖掘配置–执行引擎–引擎配置 找到“节点数据hdfs存储目录”配置项,填写Hadoop地址

...

title注意事项

...


4、Python执行节点更新

4.1停止旧Python服务

...