搜索

Help

第60页,共265页。 显示 2,649 条结果 (0.031 秒)

  1. Linux系统一键安装包部署Smartbi

    安装产品 ①脚本添加执行权限 chmod +x *.sh ②执行install.sh脚本安装产品(注意本文档基于centos7操作系统部署并截图) ./install.sh                #执行安装 脚本会检测系统版本和CPU架构,如果不符合要求则会自动退出脚本执行; image2024-12-5_16-40-30.png 选择需要安装的组件: 根据实际需要选择是否安装,注意:直接回车 表示安装。 image2024-12-5_16-41-26.png 选择安装组件后,会打印出已选择安装的组件列表,确认则输入 y 。重新选择安装组件则输入 n并且脚本会退出执行,重新执行install.sh安装脚本
  2. 部署Smartbi数据挖掘引擎/SmartbiETL

    数据挖掘包含两大部分:数据挖掘执行引擎、数据挖掘服务引擎 数据挖掘执行引擎: 负责接收Smartbi 发送执行请求。 通过解析执行定义,生成spark 计算任务或python计算任务,分别发送计算节点。 本身并不承担计算任务,只负责计算任务的调度跟分发。 SmartbiETL功能 数据挖掘服务引擎: 提供模型预测服务给第三放系统调用 数据挖掘执行引擎和服务引擎可部署在同一台服务器中,也可以分开部署在不同服务器中。 数据挖掘数据量2000万、15个并发任务时以下时,只需要提升数据挖掘服务器配置即可 1、系统环境准备 配置防火墙,selinux相关操作,需要管理员权限。 1.1 防火墙配置 为了便于
  3. CRON表达式

    一、概述 当需要计划按照较为复杂的时间设定进行执行,且无法通过“新建计划”界面简单配置实现时,可以通过设置Cron表达式实现。 二、CRON表达式规则 1、基本结构 Cron表达式是一个字符串,由6或7个时间字段组成,各字段以空格分隔,格式如下: 示例格式:​ ​0 0 8 * * ? → 每天8:00执行 0 0/5 14 * * ? → 每天14:00开始,每5分钟执行一次 2、字段含义与取值范围 字段 允许值 允许的特殊字符 备注 秒 0-59 , - * / 控制秒级触发 分 0-59 , - * / 控制
  4. 参数 - 基于带参数数据模型创建电子表格,参数默认显示全部

    1 1、创建带参数数据模型。创建过程参考“数据模型-参数应用”中的SQL查询示例,需注意SQL绑定参数部分如下图方式书写: image2022-5-24_11-49-35.png 2、在参数设置中设置默认值和备选值,设置方式如下: image2022-5-24_11-53-43.png 此SQL示例数据源是oracel类型所编辑,仅供参考,具体需根据实际项目场景更改SQL: SELECT "SHIPREGION" AS ID, "SHIPREGION" AS name FROM "NORTHWIND"."ORDERS" union SELECT 'all' AS ID
    FAQ中心六月 12, 2025
  5. 脱敏规则

    √ 多维数据源 √ 高速缓存库 × 跨库联合数据源 √ 数据集 数据模型 √ 业务主题 √ 自助数据集 √ 可视化数据集 √ SQL数据集 √ 原生SQL数据集 √ 存储过程数据集 … 列、新建命名集、新建计算成员的表达式可以包含多个维度或度量,识别其中一个字段有脱敏规则(按表达式的编写顺序),就使用对应的脱敏规则进行脱敏。 计算字段、计算度量、新建计算列、新建命名集、新建计算成员等,默认继承源表或维度的脱敏规则; 如果源表没有设置脱敏规则,可以手动设置脱敏规则。 SQL查询、SQL
  6. 1、部署数据挖掘

    数据挖掘包含两大部分:数据挖掘执行引擎、数据挖掘服务引擎 数据挖掘执行引擎: 负责接收Smartbi 发送执行请求。 通过解析执行定义,生成spark 计算任务或python计算任务,分别发送给spark集群或python集群。 本身并不承担计算任务,只负责计算任务的调度跟分发。 数据挖掘服务引擎: 提供模型预测服务给第三放系统调用 数据挖掘执行引擎和服务引擎可部署在同一台服务器中,也可以分开部署在不同服务器中。 单机部署数据挖掘组件环境如下: 服务器IP 主机名 组件实例 部署目录 10.10.204.248 10-10-204-248 数据挖掘 /data
  7. 新模块二次开发接口&示例 ⬝ 数据预警SDK接口说明

    System.out.println(error.getChannelErrorMessages()); // 渠道执行过程中产生的堆栈异常 System.out.println(error.getChannelStacktraces()); // 获取本次预警的错误信息(一般是预警执行抛出了异常) System.out.println(error.getErrorMessage()); // 获取本次预警的错误信息(一般是预警执行抛出了异常) System.out.println(error.getStacktrace()); // 执行数据预警 alarmService.execute
  8. 透视分析-定义流程

    数据来源不支持数据模型,如需使用“可视化数据集、SQL数据集等其他数据集,需更换一个包含"相关数据集”的License授权文件。 字段选择 字段选择用于选择并确定透视分析需要展现的字段,是透视分析的基础。 透视分析字段的选择涉及可选资源区、待选列区、行列度量区这三个区域: 基于业务主题创建的透视分析界面.png 这三个区域的说明如下表: 区域 说明 可执行的操作 可选资源区 用于从资源树中选择字段; 注:该区是只基于“业务主题”数据来源定制的透视分析才存在的区域。 勾选字段:所勾选字段将在右侧待选列区出现; 右键菜单:包含父节点的“刷新”、“属性”,及字段节点的“参数设置
  9. 数据预警管理

    ,其他用户可查看。 ⑤“立即执行”:手动执行数据预警。仅数据预警的创建人可手动执行数据预警。 ⑥“预警记录”:打开数据预警的预警记录界面,查看该数据预警的历史预警执行结果、推送情况、或执行失败信息等。详情可查看: ⑦“复制”:复制数据预警。 ⑧“启用/禁用”:用于设置数据预警的启用/禁用。 ⑨“删除”:删除 … 的数据预警列表。 ③ “查看/编辑”:打开数据预警的配置界面进行查看/编辑。对数据预警只有查看权限的用户,可打开预警进行查看,但不可修改保存。 ④“立即执行”:手动执行数据预警。对数据预警有编辑权限的用户,可点击该按钮执行数据预警。 ⑤“预警记录”:打开数据预警的预警记录界面,查看该数据预警的历史预警执行结果、推送
  10. 部署Smartbi数据挖掘/SmartbiETL集群

    数据挖掘组件介绍 部署Smartbi 数据挖掘引擎集群需要部署以下组件: 服务名称 简介 数据挖掘-执行引擎 负责接收Smartbi 发送执行请求。 通过解析执行定义,生成spark 计算任务或python计算任务,分别发送给计算节点。 本身并不承担计算任务,只负责计算任务的调度跟分发。 数据挖掘-服务引擎 提供模型预测服务给第三放系统调用 Zookeeper 用于实现数据挖掘执行引擎和数据挖掘服务引擎的高可用。 Python执行节点 python 执行环境,主要承担执行引擎发送过来的python计算任务。 可以横向扩展,执行引擎会根据负责均衡策略