搜索

Help

第22页,共87页。 显示 865 条结果 (0.021 秒)

  1. [缓存功能]-新增执行策略:是否使用缓存设置

    概述 执行策略主要是优化客户在全部执行的时候,希望能够不使用缓存,否则数据会没有任何变化。因此在挖掘和ETL工具栏增加执行策略:可设置不使用缓存,使用系统默认缓存设置 功能配置入口 点击执行策略,会有两种执行策略供选择:一种是不使用缓存,一种是使用系统缓存设置,如下图所示 … :不缓存,全局执行时会重新运行所有节点 执行策略:使用系统缓存设置,缓存策略:缓存,全局执行时不会重新运行所有节点 执行策略:使用系统缓存设置,缓存策略:不缓存,全局执行时会重新运行所有节点 功能节点 节点使用 etl节点 缓存策略
  2. Windows 客户端升级指南

    自助仪表盘导出引擎,可以将自助仪表盘导出为excel、pdf、png等格式 Smartbi跨库联合数据源 可以进行跨库查询。 可选 Smartbi自助ETL/数据挖掘执行引擎 该组件包含以下两个模块: 自助ETL模块:可以让业务人员进行自助ETL; 数据挖掘执行引擎:内置本地模式的spark,可以执行数据挖掘相关计算服务。 可选 Smartbi数据挖掘服务引擎 提供数据挖掘模型预测服务,供第三方系统调用。 可选 若需体验数据挖掘全部功能,则必须安装功能“Smartbi自助ETL/数据挖掘执行引擎” 和 “Smartbi数据挖掘服务引擎”。 开始进行覆盖安装,等待升级结束即可
  3. python节点增加pymysql模块

    (本文档仅供参考) 问题 自助ETL中编辑python脚本,其中引用到了pymysql模块,执行报错提示No module named 'pymysql' image2023-10-24_15-48-12.png image2023-10-24_15-48-31.png 原因 目前产品python节点安装包中仅内置了部分常用的python模块,如若需要使用其它模块可自行参考以下方案在python中安装。 解决方案 直接在部署python节点的环境上,执行 pip install pymysql 命令即可,建议使用部署python节点的用户进行执行,如下
    FAQ中心六月 09, 2025
  4. 全局视图构建指标模型

    表结构设置完成后,点击 保存 。 7.png 然后,点击 数据预览 , 数据管理 中新建或者选择 自助ETL。 10.png 自助ETL的创建及设置详情请参见:自助ETL https://wiki.smartbi.com.cn/pages/viewpage.action?pageId=69737123。 选择
  5. Kettle学习资料

    以下资料仅供参考 Kettle 是一款 Pentaho http://www.pentaho.com/ 旗下的ETL工具,纯Java编写,可以在Window、Linux、Unix等系统上运行,数据抽取高效稳定。 Kettle 这个ETL工具集,它允许你管理来自不同数据库的数据,通过提供一个图形化的用户环境来描述你想做什么,而不是你想怎么做。Kettle http://baike.baidu.com/view/2486337.htm 中有两种脚本文件,transformation和job,transformation完成针对数据的基础转换,job则完成整个工作流的控制。作为 Pentaho http
    技术参考一月 14, 2022
  6. 数据模型抽取计划无执行记录

    (本文档仅供参考) 问题说明         数据模型的抽取日志中无抽取记录,并且手动执行也无记录。         后续通过计划任务发现,有任务处于长时间执行状态,占用了执行资源,导致所有计划都在排队 image2023-6-16_14-27-55.png 解决方案        出现原因        通过排查发现,导致长时间卡住的都是数据模型用到了ETL高级查询,并修改了表结构但没有在抽取设置中没有点击抽取并建宽表导致的 image2023-6-16_14-32-2.png        解决方法        找到对应模型,右键编辑ETL高级查询,手动停止查询
    FAQ中心六月 16, 2023
  7. Clickhouse抽取报错:Too many parts.

    (本文档仅供参考) 现象: 自助ETL抽取数据到clickhouse时报错:Too many parts image2022-10-8_15-31-51.png 原因: 当数据插入到[clickhouse]表时,每一批插入都会生成对应parts文件,clickhouse后台会有合并小文件的操作; 当插入速度过快,生成parts小文件过多时,clickhouse无法以适当的速度合并这些parts时会报上面这个错误。 解决方案: 1、spark写入clickhouse的并发数调小,批处理的数据size间隔调大,比如之前200并发调整到50并发,从之前一批1w条数据调整到5w条数据,从而减少clickhouse文件的个数
    FAQ中心六月 05, 2025
  8. Smartbi 环境之间必须开通哪些端口

    V93版本以上版本如果需要部署自助仪表盘导出引擎实现自助仪表盘的导出,单节点默认端口号如下: 端口号默认“3003” 如果项目修改相关端口号,依据实际情况开启对应端口号即可 自助ETL模块 8899、4040 8899数据挖掘实验引擎http请求端口,4040用于监控spark 作业的 olap … : 端口号默认“3003” 如果项目修改相关端口号,依据实际情况开启对应端口号即可 业务库访问端口   SmartBI系统需要通过此端口访问业务数据库 自助ETL模块 8899、4040 8899数据挖掘实验引擎http请求端口,4040用于监控spark 作业的 olap引擎 18081
    FAQ中心四月 24, 2025
  9. 数据挖掘-数据的输入和输出

    ,V9.7支持6、7.1、7.6版本的达梦数据库)、GBase(V9.5目前不支持GBase数据库,V9.7支持8A、8S V8.4、8S V8.8版本的GBase数据库)、Sybase。 从V10版本开始,新用户ETL目标数据源默认不能选择高速缓存库,如需要选择高速缓存库,需在系统选项/高级设置项中,添加或开启设置项: DISABLE_WRITE_TO_SMARTBI_CACHE=false (true 是不能选) 旧版本升级到10版本及以上,默认自动加设置项,保证旧用户能继续在ETL目标源中选择高速缓存库 输入输出 输入 只有一个输入端口,用于将接收到的结果数据存储到指定库中。 输出 没有输出
  10. 概述

    加工处理不再费时费力 Smartbi数据模型提供了丰富、强大的计算能力,不仅支持SQL计算、ETL分布式计算、MDX计算;还支持快速实现同环比时间计算、占比、排名、累计等;同时支持在计算中使用参数,动态获取结果。 1.1.4  整合分散的业务数据,提升关联分析的效率 小王是一名大型企业的业务员,经常要及时 … 数据准备和数据分析之间的关系进行了重新梳理,统一了表现层和数据层,统一了数据分析的计算能力,提供了丰富、强大的计算能力,不仅支持SQL计算、ETL分布式计算、MDX计算;还支持快速实现同环比时间计算、占比、排名、累计等;同时支持在计算中使用参数,动态获取结果。