第59页,共265页。 显示 2,650 条结果 (0.482 秒)
用户日志
功能便于用户查看浏览器端、服务器端的日志信息,以及前后端通信信息。可协助获取sql的时长或者进行性能跟踪等。 功能入口 在界面右上角选择 更多 > 用户日志,如图: image2023-6-30_17-33-17.png 用户要使用“用户日志”功能,则用户需拥有“查看用户日志”的操作权限。操作如下: 进入 … 和前后端通信。说明如下: 页面 描述 浏览器端 该界面可以查看产品代码在浏览器端输出的日志信息。 这些日志大多是记录前端执行某些方法所花费的时间(单位为:毫秒,1秒=1000毫秒),主要用于跟踪性能问题。 服务器端 该界面可以查看“当前用户操作所引发的服务器端记录到smartbi.log1 创建模型
", "aggregator": "sum", "fieldName": "Freight" }] } ``` ### 简单示例 2:SQL 私有查询 ```json { "name": "SimpleModelDemo2", "alias": "模型简单示例2", "views": [{ "name": "orders", "alias": "订单表", "type": "SQL_VIEW", "define数据模型-参数应用
%E7%94%A8-%E5%8F%82%E6%95%B0%E6%98%A0%E5%B0%84%E5%85%B3%E7%B3%BB。 私有查询参数 私有查询资源除数据源表和导入文件之外,其它几种类型都支持带参数。 各类私有查询定义参数的详情如下。 SQL查询 SQL查询中,在表达式中通过 … ?pageId=69737262 相关内容 。 存储过程查询 存储过程查询中的参数在存储过程中定义,在数据模型中执行存储过程查询结果集,显示参数列表及展现结果。 image2021-6-25_16-49-10.png 详情请参考 存储过程查询 https://wiki.smartbi.com.cn//pages自然语言分析-常见问题处理(FAQ)
logs 查看,出现如下日志: Illegal instruction (core dumped) 表示当前服务器的 CPU 不支持TensorFlow所需要的指令集 avx 和 avx2。 解决方案: ① 物理机 更换为支持avx执行集合的物理机 ② 虚拟机 更换对应的cpu映射,更换为支持 … Smartbi_ai_config数据库不存在。 解决方案: 参考以下步骤逐一执行,最后按提示输入密码。 # 进入 docker 容器 docker exec -it <容器名> bin/bash # 创建一个新的 Smartbi_ai_config数据库 mysql -u root -p </home/data参数设置
股常用日期作为分区字段,默认带上日期作为查询条件,命中分区性能才会快。 需要根据不同的参数值输出不同内容,如SQL查询中根据不同参数值,查询不同的表字段内容作为输出字段。 计算度量、计算列、命名集、计算成员等需要引用前端输入的参数值做不同的计算。 1、如果数据模型是 直连模式,则可以根据切换参数值动态筛选;如果数据模型是 抽取 模式,则只能根据设置的默认值筛选,无法动态切换。 2、假设 查询 的参数定义“参数 默认值 是必填; 那么在数据模型参数映射之后,默认值也需要填写;否则不能正常查询报表,会提示需要先设置参数默认值。 3、参数支持权限控制,做法与SQL查询一致,详情可查看:创建SQL查询 https设置查询关系
:image2024-12-2_17-22-45.png 。 关系是必填项,一定要设置至少一个关系;点击 jia.png支持新建多个关系;假设设置了多个关系,生成的SQL语句是and关系。 关系支持设置 自定义计算列:比如想要关系字段需要使用contact、replace等函数进行拼接、替换等,需要使用自定义计算列 … ;当orderDetail的count(*)与count(distinct (OrderID))不是一致时,则认为是“多”的一方。 3、注意:这个检测方法会做一次count,所以数据库执行count慢时,会出现检测性能问题;自动构建表关系就是依赖基数检测结果,如果数据量很大时,建议关闭自动检测基数。 1、子图ETL-节点处理含有大字段(BLOB,CLOB)的数据,导致OOM
at org.apache.spark.sql.execution.vectorized.OnHeapColumnVector.reserveInternal(OnHeapColumnVector.java:575) ........ Caused by: java.lang.RuntimeException: Cannot reserve additional contiguous bytes in the vectorized reader … spark.sql.sources.bucketing.enabled if you read from bucket table. For Parquet file format, refer to spark.sql.parquet.columnarReaderBatchSize (default 4096流程监听器
“用户任务”节点可以设置监听器。 01.png 监听器分类 监听器分为执行监听器(execution listener)和任务监听器(task listener)。 执行监听器(execution listener)可以在流程执行中发生特定的事件时,执行外部Java代码或计算表达式。Smartbi流程允许在用户任务节点上配置执行监听器。 执行监听器包含下列属性: 事件类型(必填):触发执行监听器的事件类型。可用的事件有: 开始:当流程流转到当前节点后触发执行监听器 结束:当流程离开当前节点后触发执行监听器。 监听器类型(必填):执行监听器实现类型,支持的类型有: Java类 在扩展包(注意:该参数定义
。 file:///C:/Documents%20and%20Settings/Administrator/%E6%A1%8C%E9%9D%A2/%E5%8F%82%E6%95%B0.dotx#_多维数据源参数 关系数据源参数应用于数据集定义模块的数据集(可视化数据集、SQL数据集、原生SQL数据集、存储过程数据集等)中,通过数据集生成电子表格等报表。通常应用于数据集(相当于SQL)的Where部分,达到数据过滤的效果;但也可以应用于Select部分,达到动态查询字段的效果。 若是希望在V10.5版本中继续使用旧数据集(自助数据集、可视化数据集、SQL数据集、原生SQL数据集、java数据集、存储过程数据集) ,则需更新一个授权计算列不支持聚合函数
就能看出,聚合函数本身需要数据汇总之后才能进行使用,而计算列在计算时并没有进行汇总操作,所以此时聚合函数拼接到sql中是没有意义的,甚至会导致sql报错。 解决方案: 方法一:使用度量字段代替计算列 在数据模型中,度量本身就会带有汇总的数据,度量在查询的时候会根据其度量指定的汇总方式来拼接对应的聚合函数,如下图中的合计,勾选该度量进行查询时候,查询的sql中默认就会携带sum聚合该度量,所以就不需要计算列再设置聚合函数。另外如果希望聚合之后的值进行二次计算,则可以使用计算度量来处理。 image2025-6-23_14-30-11.pngimage2025-6-23_14-31-21.png 方法二:在查询中直