搜索

Help

第2页,共3页。 显示 30 条结果 (0.569 秒)

  1. Impala与Hive的比较

    Coordinator和Query Exec Engine三部分组成),可以直接从HDFS或HBase中用SELECT、JOIN和统计函数查询数据,从而大大降低了延迟。其架构如图 1所示,Impala主要由Impalad, State Store和CLI组成。 http://tech.uc.cn/wp-content … PlanFragment在执行时可以由多个Impalad实例并行执行(有些PlanFragment只能由一个Impalad实例执行,如聚合操作),整个执行计划为一执行计划树),由Coordinator根据执行计划,数据存储信息(Impala通过libhdfs与HDFS进行交互。通过hdfsGetHosts方法获得文件
    技术参考二月 13, 2014
  2. 执行引擎

    。 14 java插件jar包存储目录 指定java插件的存储目录,使用绝对路径。 15 节点数据hdfs存储目录 使用webhdfs接口,默认使用webhdfs://enginecluster。 webhdfs://enginecluster。 16 节点数据hdfs访问控制列表 控制节点数据hdfs的访问权限。 17 clickhouse回退是否启用事务(关系目标源) 控制关系目标源选择clickhouse执行回退时的执行策略 18 是否启用clickhouse-client写入数据(关系目标源) 控制 clickhouse数据写入模式 (true:使用client模式
  3. 执行引擎

    python插件的存储目录,使用绝对路径。 14 java插件jar包存储目录 指定java插件的存储目录,使用绝对路径。 15 节点数据hdfs存储目录 使用webhdfs接口,默认使用webhdfs://enginecluster。 webhdfs://enginecluster。 16 节点数据hdfs访问控制列表 控制节点数据hdfs的访问权限。 17 clickhouse回退是否启用事务(关系目标源) 控制关系目标源选择clickhouse执行回退时的执行策略 18 是否启用clickhouse-client写入数据(关系目标源) 控制 clickhouse数据写入模式
  4. 使用ETL导入本地csv文件

    (文档仅供参考) 问题说明          用户本地存储的csv文件过大,需要使用etl工具上传。但是没有hdfs服务器怎么处理? 解决方案          预先把文件放到Smartbi服务器上,更改文件地址格式如下,即可上传本地csv文件:          linux系统: file:///data/bigdata.csv file:///data/bigdata.csv          windows系统: file:///D:/data/bigdata.csv         image2023-8-15_10-29-28.png
    FAQ中心九月 04, 2023
  5. 实验界面介绍

    =51941725#id-%E6%95%B0%E6%8D%AE%E6%8C%96%E6%8E%98-%E6%95%B0%E6%8D%AE%E6%BA%90-%E6%95%B0%E6%8D%AE%E6%BA%90 目标源 目标源中的节点是数据挖掘实验结果输出节点,目前支持将结果输出至关系目标源,或导出数据到HDFS。 目标 … 不可用。 安装配置hdfs步骤: 安装部署Hadoop详情请参考 部署Hadoop单机 https://wiki.smartbi.com.cn/pages/viewpage.action?pageId=69737841&src=contextnavpagetreemode、部署Hadoop集群 https
  6. 实验界面介绍

    =51941725#id-%E6%95%B0%E6%8D%AE%E6%8C%96%E6%8E%98-%E6%95%B0%E6%8D%AE%E6%BA%90-%E6%95%B0%E6%8D%AE%E6%BA%90 目标源 目标源中的节点是数据挖掘实验结果输出节点,目前支持将结果输出至关系目标源,或导出数据到HDFS。 目标 … 不可用。 安装配置hdfs步骤: 安装部署Hadoop详情请参考 部署Hadoop单机 https://wiki.smartbi.com.cn/pages/viewpage.action?pageId=69737841&src=contextnavpagetreemode、部署Hadoop集群 https
  7. Kylin数据连接

    1   概述 kylin是一个MOLAP系统,通过预计算的方式缓存了所有 需要查询的的数据结果,需要大量的存储空间(原数据量的10+倍)。一般我们要分析的数据可能存储在关系数据库、HDFS上数据、文本文件、excel 等。kylin主要是对hive中的数据进行预计算,利用hadoop的mapreduce框架实现。 本文将介绍如何在Smartbi中连接Kylin数据库。 2  数据连接 2.1 配置信息 驱动程序类 连接字符串 驱动程序存放目录 支持数据库版本 org.apache.kylin.jdbc.Driver jdbc:kylin://<servername>:<port
  8. Impala数据连接

    1   概述 Impala是Cloudera公司主导开发的新型查询系统,它提供SQL语义,能查询存储在Hadoop的HDFS和HBase中的PB级大数据。 本文介绍如何在smartbi V9.5以上版本中连接Impala数据库。 Impala支持写入功能。 注意事项: 1.表名、字段名不支持中文。 2. jdbc url需要设置参数 OptimizedInsert=0 ,否则导入的内容包含中文会乱码; 数据源勾选”允许加载Excel数据“后会自动在url末尾添加这个参数, 参考:https://blog.csdn.net/m0_37473279/article/details/121702401 https
  9. 关系型数据源-Kylin数据连接

    1   概述 kylin是一个MOLAP系统,通过预计算的方式缓存了所有 需要查询的的数据结果,需要大量的存储空间(原数据量的10+倍)。一般我们要分析的数据可能存储在关系数据库、HDFS上数据、文本文件、excel 等。kylin主要是对hive中的数据进行预计算,利用hadoop的mapreduce框架实现。 本文将介绍如何在Smartbi中连接Kylin数据库。 2  数据连接 2.1 配置信息 驱动程序类 连接字符串 驱动程序存放目录 支持数据库版本 org.apache.kylin.jdbc.Driver jdbc:kylin://<servername>:<port
  10. Hortonworks Hadoop安装说明

    、小写字母、特殊符号。 3.其他配置信息可按图。 4. 如果没有勾选"Delete existing HDP data",必须格式化HDFS文件系统,命令为bin\hadoop namenode –format 5. 安装完成   四、修改配置文件,更换为Mysql元数据库。 1、         在mysql
    技术参考二月 27, 2014