搜索

Help

第17页,共72页。 显示 711 条结果 (0.11 秒)

  1. 分析报告-制作流程

    支持定期生成分析报告,将分析报告发布到服务器上,并进行资源授权,之后利用计划任务的功能,可以定期生成分析报告。关于计划任务的操作,请参考 计划任务 。 分析报告浏览 用户在Smartbi系统上打开分析报告,即可在线浏览,Smartbi支持在电脑、平板和手机上以PDF的方式打开,并可对分析报告进行操作。 分析报告提供
  2. Smartbi⬝ 安装组件介绍

    Smartbi 发送实验执行请求,为自助ETL提供基础服务。 通过解析实验定义,生成Spark 计算任务或Python计算任务,分别发送给Spark集群或Python集群。 本身并不承担计算任务,只负责计算任务的调度跟分发。 必选 数据挖掘-服务引擎 提供模型预测服务给第三方系统调用。 可选 … 等。 可选 Python执行节点 Python 执行环境,主要承担实验引擎发送过来的Python计算任务。 可以横向扩张,实验引擎会根据负载均衡策略把Python计算任务分发到不同节点。 可选 Zookeeper 用于实现数据挖掘实验引擎和数据挖掘服务引擎的高可用。 可选 Redis
  3. 作业流

    ,点击 编辑资源 按钮,打开选中节点资源,可查看、编辑节点资源。 工具栏 查看历史:作业流每次执行的结果作为历史信息都被记录下来,在历史信息页面展示,方便用户查看、对比结果; 保存:保存新建作业流; 另存为:将作业流另存为新的作业流; 运行:执行作业流流程; 定时任务:设置作业流的定时任务,详情请 … 强制单独执行该节点。 强制从当前节点开始执行 表示运行工作流时强制从当前节点资源开始执行。 删除 表示删除当前节点资源。 查看日志 用于查看当前节点资源的运行日志。 查看执行参数 用于查看当前节点资源的执行参数。 用户执行带定时任务的作业流失败,重试定时任务
  4. 操作权限列表

    流的权限。 作业流 定时任务 用于控制是否有定时任务的权限。 源库SQL脚本 用于控制是否有源库SQL脚本的权限。 ETL自动化 用于控制是否拥有ETL自动化操作的权限。 自助ETL 用于控制是否拥有新建自助ETL的权限。 自助ETL 输入 数据集 用于控制在自助 … 用于控制是否拥有打开数据挖掘配置的权限。 自然语言配置 用于控制是否拥有打开自然语言配置的权限。 资源交接 用于控制是否拥有资源交接的权限。 模块配置与管理 计划任务 用于控制是否拥有新建计划或任务的权限,没有该权限时,无法新建计划或任务。 流程管理 新建流程 用于控制是否
  5. 导出报表日期参数使用默认值,其他参数使用枚举值

    (本文档仅供参考) 问题说明 目前在任务配置导出报表时,只能选择默认值+固定值、枚举值+固定值。 如果此时需要枚举值+日期参数默认值(比如需要默认取前一天的值),如何设定。 image2018-10-27 10:28:45.png 解决方案  方案一:将日期参数修改为下拉参数,并同时设置备选值,然后在配置任务导出报表的时候,枚举值同时选择这2个参数。 (参数必须有参数备选值才能在任务里配置枚举导出,而日期参数的备选值是所有日期,是取不完的,所以无法配置枚举)          image2018-10-27 10:32:41.png         image2018-10-27 10:33
    FAQ中心八月 16, 2021
  6. 部署Smartbi数据挖掘引擎/SmartbiETL

    数据挖掘包含两大部分:数据挖掘执行引擎、数据挖掘服务引擎 数据挖掘执行引擎: 负责接收Smartbi 发送执行请求。 通过解析执行定义,生成spark 计算任务或python计算任务,分别发送计算节点。 本身并不承担计算任务,只负责计算任务的调度跟分发。 SmartbiETL功能 数据挖掘服务引擎: 提供模型预测服务给第三放系统调用 数据挖掘执行引擎和服务引擎可部署在同一台服务器中,也可以分开部署在不同服务器中。 数据挖掘数据量2000万、15个并发任务时以下时,只需要提升数据挖掘服务器配置即可 1、系统环境准备 配置防火墙,selinux相关操作,需要管理员权限。 1.1 防火墙配置 为了便于
  7. Smartbi数据挖掘引擎/SmartbiETL安装前准备

    执行环境,主要承担实验引擎发送过来的python计算任务。 可以横向扩张,实验引擎会根据负载均衡策略把python计算任务分发到不同节点。 可选 操作系统推荐: Linux操作系统平台 系统版本 Red Hat Enterprise Linux 推荐7.4 及以上 … SmartbiMiningEngine-V11.0.tar.gz 数据挖掘引擎主程序 python-3.9.13.tar.gz Python,用于数据挖掘执行python计算任务 如不需要执行Pyhon计算任务,可不安装 JDK jdk-8u181-linux-x64.tar.gz JAVA运行环境,数据挖掘
  8. 数据集抽取

    计划任务 系统默认为数据集抽取生成相应的计划任务,支持通过该功能操作修改相关的设置: 计划任务.png 关于计划任务的功能,详情请参考 计划任务。 中断抽取 用于立即停止抽取操作。 点击 中断抽取 (image2020-3-10 15:17:5.png)按钮,弹出“确认”窗口,确认是否中断数据抽取
  9. 数据集抽取

    计划任务 系统默认为数据集抽取生成相应的计划任务,支持通过该功能操作修改相关的设置: 计划任务.png 关于计划任务的功能,详情请参考 计划任务。 中断抽取 用于立即停止抽取操作。 点击 中断抽取 (image2020-3-10 15:17:5.png)按钮,弹出“确认”窗口,确认是否中断数据抽取
  10. 如何在作业流中执行抽取的数据模型?

    1、概述  1)作业流和数据模型的抽取是独立分开进行的,但是数据模型的数据依赖于作业流即作业流先抽完,数据模型才能开始抽数,否则会出现数据不正确; 2)作业流执行完了之后数据模型再抽取数据,需要自定义任务(写代码)才能实现,而且非常复杂,耗时耗力; 而在V10.5.8,作业流可以通过拖、拉、拽轻松设置数据模型 … 下仅显示”抽取“的数据模型或指标模型 2.2 、添加”指标模型“ 1)在作业流左侧资源树上选择“指标模型”,如下图: 2.png 拖入指标模型到作业流画布中,给指标模型与其他ETL或作业流设置串联关系,即先执行ETL或作业流资源再执行指标模型的抽取; 由于指标模型或数据模型保存时会自动生成一个计划任务,所以需要