1、卸载Spark
①停止spark服务
进入spark安装目录中,执行脚本停止spark服务,参考如下:
cd /opt/spark-2.4.0-bin-hadoop2.7/bin ./stop-all.sh
②如果部署Spark服务时开启了防火墙端口,则需要关闭对应的端口,参考如下:
firewall-cmd --zone=public --remove-port=8080/tcp --permanent firewall-cmd --zone=public --remove-port=8081/tcp --permanent firewall-cmd --zone=public --remove-port=7077/tcp --permanent firewall-cmd --zone=public --remove-port=30000-65535/tcp --permanent firewall-cmd --reload
③删除安装目录即可完成卸载
2、卸载Hadoop
①停止hadoop服务
进入hadoop安装目录,执行脚本停止hadoop服务,参考如下:
cd /opt/hadoop-2.7.3/ ./sbin/stop-dfs.sh
②如果部署Hadoop服务时开启了防火墙端口,则需要关闭对应的端口,参考如下:
firewall-cmd --zone=public --remove-port=50090/tcp --permanent firewall-cmd --zone=public --remove-port=50070/tcp --permanent firewall-cmd --zone=public --remove-port=9000/tcp --permanent firewall-cmd --zone=public --remove-port=50010/tcp --permanent firewall-cmd --zone=public --remove-port=50075/tcp --permanent firewall-cmd --zone=public --remove-port=50020/tcp --permanent firewall-cmd --reload
③删除安装目录及hadoop数据目录即可完成卸载
3、卸载数据挖掘服务
①停止数据挖掘实验引擎和数据挖掘实验服务
进入数据挖掘安装目录,执行脚本停止数据挖掘服务,参考如下:
cd /opt/smartbi-mining-engine-bin/engine/sbin ./experiment-daemon.sh stop ./service-daemon.sh stop
②如果部署数据挖掘服务时开启了防火墙端口,则需要关闭对应的端口,参考如下:
firewall-cmd --zone=public --remove-port=8899/tcp --permanent firewall-cmd --zone=public --remove-port=8900/tcp --permanent firewall-cmd --reload
③删除数据挖掘安装目录即可完成卸载
4、卸载Python执行节点
①停止数据挖掘实验引擎和数据挖掘实验服务
进入Python目录,执行脚本Python服务,参考如下:
su - mining-py cd /opt/smartbi-mining-engine-bin/engine/sbin ./agent-daemon.sh stop --master http://smartbi-engine:8899 --env python
②如果部署Python执行节点时开启了防火墙端口,则需要关闭对应的端口,参考如下:
firewall-cmd --zone=public --remove-port=8980/tcp --permanent firewall-cmd --reload
③删除Python安装目录即可完成卸载