第2页,共129页。 显示 1,287 条结果 (0.024 秒)
报错 - 电子表格报错 Invalid column index
) [?:1.8.0_281] 原因分析: 此报错通常是超出了Excel的最大列号:XFD(16384列),若横向扩展字段的数据量没这么大,则需要排查一下电子表格中是否由于误操作导致大量的空白列生效了。图形 - 甘特图-月度计划表
(本文档仅供参考) 需求描述 集团目前有月度任务采购计划,要求默认展示当月创建的所有任务,计划开始时间、结束时间,实际开始时间和结束时间,跟甘特图有点类似。 image2022-11-15_14-17-56.png 展示效果 image2022-11-15_14-36-2.png 实现思路 通过Excel的条件规则对符合日期范围内的日期进行单元格颜色填充。 实现步骤 一、数据集准备 随着月份不同天数也会出现28、 29、30、31天不等,因此需要通过编写sql获取不同月份的每一天,用于横向扩展处对应的日期。 如以下基于MySQL数据库的sql示例,不同数据库类型需自行调整SQL交叉表
如下图所示: 行区、列区和度量区中的字段可相互拖拽改变字段所在区域或字段的前后顺序。 Snipaste_2023-06-13_20-09-04.png 3、为了避免横向扩展太多列数,影响表格加载速度,交叉表默认的最大列数是50列。 (1)用户可在组件设置的属性中调整 最大列数 的值,最大可设置的列数为 200 。 Snipaste_2023-06-13_20-14-55.png (2)如果添加了多个度量字段,由于度量列属于固定列,而最大列数限制的是横向动态扩展的列,所以超过了最大列数的那些度量列,列头保留但数据全部显示为空,即表格字段数据结构是完整的,但数据不返回交互式仪表盘 ⬝ 表格分析
:仅支持列头区域,包括右侧横向扩展的维度单元格。 此限制的原因:添加整个字段的所有数据,和具体维成员值无关。 维度-添加维度.gif 按照当前成员添加 在当前维度字段的右侧/下方增加新的维度字段,且需要按所选的成员值过滤数据。 使用限制:仅支持行头区域的维成员单元格,且仅支持交叉表组件。 此限制的原因:和所选的维成员有关。 维度-按成员维度.gif 替换当前维度 选择新的维度字段替换当前的维度字段。 使用限制:仅支持列头区域,包括右侧横向扩展的维度单元格。 此限制的原因:添加整个字段的所有数据,和具体维成员值无关。 维度-替换维度.gifSmartbi安装组件介绍
等。 可选 Python执行节点 Python 执行环境,主要承担实验引擎发送过来的Python计算任务。 可以横向扩张,实验引擎会根据负载均衡策略把Python计算任务分发到不同节点。 可选 Spark 分布式计算平台,主要承担实验引擎发送过来的Spark计算任务,其中Worker实例可以横向扩展电子表格⬝ 回写功能支持边界
不可以正常删除。 对报表进行修改,将水平方向扩展的主键same移动到垂直方向扩展。如下 image2021-3-9_13-54-56.png 修改后依然符合第一点要求,此时,横向扩展方向只有column一个主键,因此,可以正常删除行; 但是垂直方向扩展的有3个主键,所以无法正常删除列 … 条件 电子表格要正常回写,插入,删除需要满足以下条件: 1、回写规则中的所有单元格的两个扩展方向的父子关系都是一个链表而不是一棵树。 2、如果是交叉报表,删除整行或整列时,对应的列上或行上不可以有多个主键。 3、字段不能设置排序,如需排序建议在数据集中SQL处理。 示例说明 1、回写规则中的所有单元格电子表格⬝ 回写功能支持边界
不可以正常删除。 对报表进行修改,将水平方向扩展的主键same移动到垂直方向扩展。如下 image2021-3-9_13-54-56.png 修改后依然符合第一点要求,此时,横向扩展方向只有column一个主键,因此,可以正常删除行; 但是垂直方向扩展的有3个主键,所以无法正常删除列 … 条件 电子表格要正常回写,插入,删除需要满足以下条件: 1、回写规则中的所有单元格的两个扩展方向的父子关系都是一个链表而不是一棵树。 2、如果是交叉报表,删除整行或整列时,对应的列上或行上不可以有多个主键。 3、字段不能设置排序,如需排序建议在数据集中SQL处理。 示例说明 1、回写规则中的所有单元格部署数据挖掘-单机
承担计算任务,只负责计算任务的调度跟分发。 数据挖掘-服务引擎 提供模型预测服务给第三放系统调用 Spark 分布式计算平台,主要承担实验引擎发送过来的计算任务,其中Worker实例可以横向扩展 可选 Hadoop 分布式系统基础平台,主要存储计算任务的中间结果数据。 可选,,组合查询,ETL设置缓存,挖掘任务从不同节点执行等场景需要使用Hadoop Python执行节点 python 执行环境,主要承担实验引擎发送过来的python计算任务。 可以横向扩张,实验引擎会根据负责均衡策略把python计算任务分发到不同节点。 可选 单机数据挖掘部署参考部署部署数据挖掘-集群
承担计算任务,只负责计算任务的调度跟分发。 数据挖掘-服务引擎 提供模型预测服务给第三放系统调用 Spark 分布式计算平台,主要承担实验引擎发送过来的计算任务,其中Worker实例可以横向扩展 可选 Zookeeper 用于实现数据挖掘实验引擎和数据挖掘服务引擎的高可用。 Hadoop 分布式系统基础平台,主要存储计算任务的中间结果数据。 可选,组合查询,ETL设置缓存,挖掘任务从不同节点执行等场景需要使用Hadoop Python执行节点 python 执行环境,主要承担实验引擎发送过来的python计算任务。 可以横向扩张,实验引擎会根据负责均衡策略2、部署Spark3.1
Spark 分布式计算平台,主要承担实验引擎发送过来的计算任务,其中Worker实例可以横向扩展。 需要使用Smartbi提供的Spark3.1安装包部署 数据挖掘数据量2000万以下时,无需单独部署spark节点,只需要提升数据挖掘服务器配置即可 单机部署数据挖掘组件环境如下: 服务器IP 主机名 组件实例 部署目录 10.10.204.248 10-10-204-248 数据挖掘 /data 10.10.204.249 10-10-204-249 Spark,Hadoop /data 10.10.204.250 10-10-204-250 Python /data