页面树结构
转至元数据结尾
转至元数据起始


本节介绍smartbi连接数据挖掘、Spark、Hadoop、Python以及测试服务是否正常运行。

文档环境

单机部署数据挖掘组件环境如下:

服务器IP主机名组件实例部署目录
10.10.204.24810-10-204-248数据挖掘/data
10.10.204.24910-10-204-249Spark,Hadoop/data
10.10.204.25010-10-204-250Python/data

请根据实际部署环境替换相关的配置信息。

1. 配置连接信息

前提条件

配置数据挖掘连接信息前,请确认数据挖掘已正常部署和启动。部署文档参考:部署数据挖掘

① 浏览器访问Smartbi,打开系统运维–数据挖掘配置–引擎设置,引擎地址和服务地址设置成正确的数据挖掘引擎地址,并点击保存

注意事项

修改引擎和服务地址后,需要点击保存,否则执行引擎和服务引擎可能会显示空白页

配置数据挖掘地址后,首次测试引擎地址,会提示“平台到引擎连接成功,引擎到平台连接失败,请检查引擎配置”

首次测试服务地址则会提示“平台到服务连接成功,服务到平台连接失败,请检查服务配置”


② 打开系统运维–数据挖掘配置–执行引擎--引擎配置,参考下图修改smartbi地址、hadoop地址(根据实际环境修改),修改完成后点击保存

前提条件

配置Hadoop连接信息前,请确认Hadoop节点已正常部署和启动。部署文档参考:部署Hadoop

③ 打开系统运维–数据挖掘配置–执行引擎--计算节点配置,参考下图设置,修改完成后点击保存

前提条件

配置Spark连接信息前,请确认Spark节点已正常部署和启动。部署文档参考:部署Spark3.1

配置spark计算节点:


配置Spark节点资源,点击一键推荐,系统会根据Spark work节点的服务器资源,生成推荐的配置(如果使用推荐值,记得点击保存,否则配置不生效):

④ 打开系统运维–数据挖掘配置–服务引擎,参考下图修改smartbi地址(根据实际环境修改),修改完成后点击保存



⑤ 执行引擎和服务引擎完成设置、保存后,返回 系统运维–数据挖掘配置–引擎设置,重新点击测试,如下提示表示配置成功:

2. 运行数据挖掘示例

2.1. 测试数据挖掘执行引擎

打开数据挖掘–案例--波士顿房价预测,点击运行,如下图显示运行成功即可

如果某个节点运行失败,可以右键点击节点,选择查看日志分析错误原因:

2.2. 测试数据挖掘服务引擎

① 打开数据挖掘–案例--波士顿房价预测,点击运行,如下图显示运行成功,并点击保存案例

② 右键点击 训练--模型--保存模型 ,如下图所示

③ 保存的的模型可以在左侧导航栏的”已训练模型”中查看。右键删除”线性回归”,”训练”。

④ 将保存的模型拖入,并与”预测”连线。

⑤ 导航栏-服务-拖入 服务输入、服务输出,并连线,运行成功后点击部署服务

⑥ 显示部署成功

⑦ 点击服务测试,会显示测试结果

2.3. 测试数据挖掘的Python计算

前提条件

测试数据挖掘的Python计算时,请确认Python节点已正常部署和启动。部署文档参考:部署Python节点

① 打开数据挖掘--新建实验

② 拖拽“示例数据源”,选择数据源 - 保存 - 运行 - 运行成功--保存

③ 拖拽PYTHON脚本,与示例数据源连线,点击运行,如果显示运行成功则表示Python计算节点正常

数据挖掘及其组件测试完成。

  • 无标签