第64页,共594页。 显示 5,934 条结果 (0.045 秒)
windows版的smartbi,如何连接Excel文件作为数据源
(本文档仅供参考) 问题 使用Windows版的smartbi,如果想要上传一个Excel文件到服务器上,并且连接这个Excel文件作为数据源,那么数据源的连接字符串如何配置呢? 解决方案 1.参考windows版的安装文档,把Excel文件上传到/home/Smartbi_V8.5/smartbi_data/smartbi-tomcat/bin路径下 image2018-9-18 10:50:6.png 2.那么在关系数据源中,此test.xlsx的文件路径为 “\tomcat\bin\test.xlsx”,如下“ image2018-9-18 10:52:17.png 服务器的文件作为数据数据 - 电子表格中超过15位的长整型数值显示不对
(本文档仅供参考) 问题: 长整型的数据,在数据源表数据预览显示正常,电子表格报表显示数据不对 (1)数据预览 image2024-4-23_18-3-17.png (2)电子表格预览 image2024-4-23_18-3-40.png 问题原因: 这是属于excel这边的一个精度限制:Excel的数值最大支持精度为15位(整数位+小数位),超过15位的会直接补0,所以当数值精度超过15位时,会出现精度丢失的问题。在excel上面单元格选择数值,手动输入超过15位的一样是这种情况 规避方案:修改对应字段设置为文本(字符串)。 长数值显示不对 数值过长显示不对数据模型预览报错“Unknown column”,提示有乱码列不存在
(此文档仅供参考) 问题说明 数据模型中有一个SQL查询,SQL查询执行正常,但模型中预览时报错,新建即席查询也报错。 Caused by: com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: Unknown column '.骞撮緞' in 'group statement' 一般SQL上看到没有乱码的,但报错日志说有乱码列不存在,Unknown column 12354tgh.png 解决方案 当遇到 SQL 查询在数据库中执行成功但在 BI 工具中失败的情况时,且报错信息存在乱码时,建议先检查数据源连接字符串中的编码设置是否与数据库一致。 如果透视分析(旧)某些数据四舍五入的结果不对
(本文档仅供参考) 问题说明: 透视分析数据四舍五入错误(有些5是入,有些5是舍),如下图1389.385000保留两位小数之后是1389.38,11448.555000保留两位小数之后是11448.56. image2018-10-31 11:2:4.png QQ图片20181031110250.png 问题原因: 可以拿后台执行的sql去数据库那边验证下真正的数据是怎样的,那个1389.385000的真实数据有可能是1389.384999...这种数据,如果是1389.384999...那保留6位小数是1389.385000,如果保留两位小数是1389.38。 设置小数位数后结果不对 小数结果不对ETL的Excel数据源:文本数据是0003676 ,执行后变成3676
(本文档仅供参考) 问题说明 ETL中使用Excel数据源,上传Excel文件,excel数据是文本,数据是0003676 ,但是执行出来前面的000没有了,如下图: image2024-1-17_17-7-54.png image2024-1-17_17-8-11.png 解决方案 这是由于ETL中使用了spark自动推断数据类型,原来的0003676这种格式推断数据类型后会变成3676,若不使用自动推断类型,全部字段会被当成字符串处理,这样的逻辑就更加不合理了,暂时没办法从代码上解决这个问题。 可以通过一些操作来规避:打开excel文件,在数据行开始前插入一行,有问题的列插入字符串型数据,其他列按照原先的类型插入SmartBI线下excle异构数据源数据源报表开发实现路径
(本文档仅供参考) 需求: 场景举例:目前数据模型有一个复杂SQL查询(带参数),需要关联一张线下EXCEL表,创建自助分析模型,给到用户即席or透视or仪表盘。 痛点: 1、模型处理异构表关联需要走抽取,抽取存在只能抽取参数默认值,故该方法不通 2、线下数据落到数仓,需要评估是否合规 3、自助ETL处理异构,流程比较复杂 解决方案: 目前在产品当中,要使用本地的Excel文件数据做分析, 1、通过文件数据源将数据导入到指定的数据库 2、通过ETL当中的功能将数据落地到数仓,然后Smartbi再通过数据模型进行处理 除此方法外,将本地Excel的数据导入到hive库当中,然后直连hive库中是数据表查数分新模块二次开发接口&示例 ⬝ 数据预警SDK接口说明
针对外部需求,数据预警在SmartbiX.SDK 项目下开放了部分接口供使用 一、基本使用示例 package smartbix.test.alarm; import static org.junit.Assert.assertTrue; import java.util.List; import … ) System.out.println(error.getErrorMessage()); // 获取本次预警的错误信息(一般是预警执行抛出了异常) System.out.println(error.getStacktrace()); // 执行数据预警 alarmService.execute电子表格设置过滤【数据列】无法选择到其他的数据集
(本文档仅供参考) 问题说明 制作电子报表使用了两个数据集,两个数据集有共同的字段:产品类别,对第二个数据集的科目id使用单元格过滤(数据列过滤)时,显示不出来第一个数据集: image2020-3-27 11:2:11.png 解决方案 在过滤条件中无法选到另一个数据集的情况,根据以往的处理经验 … 进行遍历监听,所以在过滤条件中无法选择到另一个数据集的内容,对于此问题需要重新勾选【监听工作簿内容发生改变】即可。 image2020-3-27 11:3:35.png 另外勾选了【监听工作簿内容发生改变】的情况下,有时候在Excel上设计或者打开特别大的电子表格报表的时候,因smartbi的Excel插件关系数据源-在Tomcat上配置JNDI数据源
在 Tomcat 上配置 JNDI 数据源,然后在 Smartbi 中使用它,完整的操作步骤如下。 在Tomcat中配置JNDI数据源 1. 打开<Tomcat 5.5.20>\conf\context.xml,在<Context>节点中添加 JNDI 连接配置,如下所示: <!-- The contents … ,LOB_SUPPORT=off,client_charset=gbk" maxActive="4"/> </Context> 2. 对上述XML解释如下: name="ipsdb" 中 ipsdb 为 JNDI 数据源的名称。 driverClassName="com.ncr.teradata.TeraDriver" 中1、部署数据挖掘集群
数据挖掘包含两大部分:数据挖掘执行引擎、数据挖掘服务引擎 数据挖掘执行引擎: 负责接收Smartbi 发送执行请求。 通过解析执行定义,生成spark 计算任务或python计算任务,分别发送给spark集群或python集群。 本身并不承担计算任务,只负责计算任务的调度跟分发。 数据挖掘服务引擎: 提供模型预测服务给第三放系统调用 集群部署数据挖掘组件环境如下: 服务器IP 主机名 组件实例 部署目录 10.10.35.64 10-10-35-64 数据挖掘-1,Zookeeper-1,Python-1 /data 10.10.35.65 10-10-35-65 数据挖掘