引言说明
填写的ip格式说明
* 1.允许所有IP -> *
* 2.精确指定某个ip -> 10.10.11.11
* 3.指定多个ip地址 -> 10.10.11.11,10.10.11.21,10.10.11.31
* 4.指定某个ip段地址 -> 10.10.11.1-10.10.11.254
* 5.指定ip支持标准的掩码 -> 10.10.11.0/24
以上格式可以一个或多个组合,多个时以逗号分隔开,示例如下:
10.10.11.11,10.10.11.21-10.10.11.31,10.10.101.0/24
范围说明——允许访问的ip,即白名单。
不在范围内的ip则不允许访问,所以填写的ip范围应该是以下这些组件服务器ip的集合:
1.BI代理服务器(可以一台或多台)
2.BI服务器(可以一台或多台)
3.挖掘服务器(包括实验引擎、代理器、服务引擎)
4.Spark服务器(可以一台或多台)
5.Hadoop服务器(可以一台或多台)
6.Zookeeper服务器(可以一台或多台)
7.其他允许远程调用服务的业务服务器(可以一台或多台)
备注:以上服务器在实际部署中未必均有部署,根据实际部署情况和需求进行填写即可。
引擎部分
执行引擎
编辑conf/experiment-application.properties文件,在文件最后面加上engine.monitor.access.ips=10.10.202.25,10.10.32.84,
保存修改并重启实验引擎即可,其中ip需根据实际情况进行调整。
代理器
启动代理器命令带上--accessips 10.10.202.25,10.10.32.84,其中ip需根据实际情况进行调整,如:
./agent-daemon.sh start --master http://10.10.32.84:8899 --env python --accessips 10.10.202.25,10.10.32.84
服务引擎
编辑conf/service-application.properties文件,在文件最后面加上engine.monitor.access.ips=10.10.202.25,10.10.32.84,
保存修改并重启服务引擎即可,其中ip需根据实际情况进行调整。
Spark部分
1.将引擎目录engine/lib/EngineFilter-1.0.jar拷贝到spark的jars目录下,spark集群中每个节点均需要。
引擎engine/lib目录:
spark的jars目录:2.配置spark的conf/spark-defaults.conf文件,在最后面添加如下内容,其中ip需根据实际情况进行调整,spark集群中每个节点均需要。
spark.ui.filters smartbix.datamining.engine.filter.IPAccessFilter
spark.smartbix.datamining.engine.filter.IPAccessFilter.param.accessIps 10.10.202.25,10.10.32.84
3.重启spark集群,在不允许访问的主机上访问http://{spark-master-ip}:8080和http://{spark-worker-ip}:8081, 出现类似如下画面,即表示配置成功并过滤生效。