页面树结构
转至元数据结尾
转至元数据起始

引言说明

填写的ip格式说明

    * 1.允许所有IP -> *
    * 2.精确指定某个ip -> 10.10.11.11
    * 3.指定多个ip地址 -> 10.10.11.11,10.10.11.21,10.10.11.31
    * 4.指定某个ip段地址 -> 10.10.11.1-10.10.11.254
    * 5.指定ip支持标准的掩码 -> 10.10.11.0/24 

以上格式可以一个或多个组合,多个时以逗号分隔开,示例如下:

10.10.11.11,10.10.11.21-10.10.11.31,10.10.101.0/24

范围说明——允许访问的ip,即白名单。

不在范围内的ip则不允许访问,所以填写的ip范围应该是以下这些组件服务器ip的集合:

    1.BI代理服务器(可以一台或多台)

    2.BI服务器(可以一台或多台)

    3.挖掘服务器(包括实验引擎、代理器、服务引擎)

    4.Spark服务器(可以一台或多台)

    5.Hadoop服务器(可以一台或多台)

    6.Zookeeper服务器(可以一台或多台)

    7.其他允许远程调用服务的业务服务器(可以一台或多台)

备注:以上服务器在实际部署中未必均有部署,根据实际部署情况和需求进行填写即可。

引擎部分

执行引擎

编辑conf/experiment-application.properties文件,在文件最后面加上engine.monitor.access.ips=10.10.202.25,10.10.32.84

保存修改并重启实验引擎即可,其中ip需根据实际情况进行调整。

代理器

启动代理器命令带上--accessips 10.10.202.25,10.10.32.84,其中ip需根据实际情况进行调整,如:

./agent-daemon.sh start --master http://10.10.32.84:8899 --env python --accessips 10.10.202.25,10.10.32.84

服务引擎

编辑conf/service-application.properties文件,在文件最后面加上engine.monitor.access.ips=10.10.202.25,10.10.32.84

保存修改并重启服务引擎即可,其中ip需根据实际情况进行调整。

Spark部分

1.将引擎目录engine/lib/EngineFilter-1.0.jar拷贝到spark的jars目录下,spark集群中每个节点均需要

引擎engine/lib目录:   spark的jars目录:

2.配置spark的conf/spark-defaults.conf文件,在最后面添加如下内容,其中ip需根据实际情况进行调整,spark集群中每个节点均需要

spark.ui.filters smartbix.datamining.engine.filter.IPAccessFilter
spark.smartbix.datamining.engine.filter.IPAccessFilter.param.accessIps 10.10.202.25,10.10.32.84



3.重启spark集群,在不允许访问的主机上访问http://{spark-master-ip}:8080http://{spark-worker-ip}:8081, 出现类似如下画面,即表示配置成功并过滤生效。

 


  • 无标签