Smartbi MPP
Linux环境分布式集群部署
广州思迈特软件有限公司
2020年4月本文件中出现的任何文字叙述、文档格式、插图、照片、方法、过程等内容,除另有特别注明,版权均属思迈特软件所有,受到有关产权及版权法保护。任何个人、机构未经思迈特软件的书面授权许可,不得以任何方式复制或引用本文件的任何片断。
目录
1、系统环境准备
1.1集群系统环境
1.2防火墙配置
2、开始安装
2.1安装介质
2.2设置系统环境
2.3 安装Java环境
2.4 安装zookeeper集群
2.5安装配置SmartbiMPP
2.6集群部署
2.7测试SmartbiMPP测试
4、运维操作
4.1停止/启动/重启Smartbi MPP
集群地址:
IP |
主机名 |
角色 |
192.168.99.104 |
test1 |
Zookeeper,smartbi-mpp |
192.168.99.105 |
test2 |
Zookeeper,smartbi-mpp |
操作系统 |
Linux内核3.10以上 |
CPU |
8核 |
内存 |
16G及以上 |
磁盘 |
200G |
建议磁盘分区
磁盘分区 |
磁盘空间 |
备注 |
/data |
200G |
Smartbi MPP |
安装权限要求:
具有 sudo权限的用户或root用户,推荐使用root用户安装
安装时用root用户运行或使用具有 sudo权限的用户执行。
PS:所有集群内的主机均需进行防火墙配置。(集群主机:test1,test2)
为了便于安装,建议在安装前关闭防火墙。使用过程中,为了系统安全可以选择启用防火墙,但必须启用Smartbi使用到的相关端口。
临时关闭防火墙
# systemctl stop firewalld
永久关闭防火墙
# systemctl disable firewalld
查看防火墙状态
服务名 |
涉及端口 |
smartbi-mpp |
9000,8123 |
Zookeeper |
2181,2888,3888 |
软件 |
安装包 |
clickhouse |
clickhouse-client-19.4.2.7-1.el7.x86_64.rpm |
|
clickhouse-common-static-19.4.2.7-1.el7.x86_64.rpm |
|
clickhouse-server-19.4.2.7-1.el7.x86_64.rpm |
|
clickhouse-server-common-19.4.2.7-1.el7.x86_64.rpm |
JDK |
jdk8.0.202-linux_x64.tar.gz |
zookeeper |
zookeeper-3.4.13.tar.gz |
cd /data/Smartbi-MPP-Colony/zookeeper-3.4.13/bin
./zkServer.sh start #启动zookeeper
./zkServer.sh status #查看状态
#其中有一个节点是leader,有一个节点是follower,证明zookeeper集群是部署成功。
#测试zookeeper集群连接,连接lader节点
./zkCli.sh -server test2:2181
create /zk-cluster-test cluster-data #创建节点数据
#连接follower节点查看创建的节点数据
./zkCli.sh -server test1:2181
get /zk-cluster-test
Zookeeper集群测试成功。
PS:集群内的主机均需安装smartbimpp(集群主机:test1,test2)
1、安装SmartbiMPP
#cd /data/Smartbi-MPP-Colony/clickhous-package/
#rpm -ivh clickhouse-common-static-19.4.2.7-1.el7.x86_64.rpm
#rpm -ivh clickhouse-server-common-19.4.2.7-1.el7.x86_64.rpm
#rpm -ivh clickhouse-server-19.4.2.7-1.el7.x86_64.rpm
#rpm -ivh clickhouse-client-19.4.2.7-1.el7.x86_64.rpm
2、SmartbiMPP的配置文件
SmartbiMPP配置文件:/etc/clickhouse-server/config.xml
SmartbiMPP用户配置文件:/etc/clickhouse-server/users.xml
3、配置日志存放路径
修改的配置文件/etc/clickhouse-server/config.xml,配置日志路径。
3、修改默认端口
修改的配置文件/etc/clickhouse-server/config.xml,
8123是JDBC驱动的连接端口。
9000是clickhouse-client的连接端口。
一般不建议修改端口配置
创建目录:mkdir /data/clickhouse/{tmp,user_files} -p #可自行修改目录
修改的配置文件/etc/clickhouse-server/config.xml,设置数据目录
5、开启远程访问权限
修改的配置文件/etc/clickhouse-server/config.xml,放开注释即可。IPV4地址和IPV6地址只能配置一个,否则会出现端口冲突的报错。
开启监听0.0.0.0的配置。
6、设置smartbimpp内存大小
修改的配置文件/etc/clickhouse-server/users.xml,
单位是Byte,默认值是10G。根据实际情况配置内存值
修改的配置文件/etc/clickhouse-server/users.xml
方法一:设置明文密码
方法二:设置加密密码(sha256sum加密)
echo n "manager" | sha256sum | tr -d ''
设置密码
test1节点:
#clickhouse-client --host test1 --port 9000 --database default --user default --password manager
test2节点:
#clickhouse-client --host test2 --port 9000 --database default --user default --password manager
查询集群信息
#select * from system.clusters;
可以看到smartbi就是我们定义的集群名称,一共有2个分片,每个分片有一份数据。
5、插入数据验证集群
2个节点分别创建数据库:
#create database if not exists smartbimpp;
#show databases;
6、测试分布式集群
两个节点分别创建数据表:
#use smartbimpp
#CREATE TABLE ontime_local (FlightDate Date,Year UInt16) ENGINE = MergeTree(FlightDate, (Year, FlightDate), 8192);
创建分片表:
#CREATE TABLE ontime_all AS ontime_local ENGINE = Distributed(smartbi, smartbimpp, ontime_local, rand())
分片表(Distributed)本身不存储数据,相当于路由,需要指定集群名、数据库名、数据表名、分片KEY,这里分片用rand()函数,表示随机分片。查询分布表,会根据集群配置信息,路由到具体的数据表,再把结果进行合并。
任意节点插入5条数据:
insert into ontime_all (FlightDate,Year)values('2001-10-12',2033);
insert into ontime_all (FlightDate,Year)values('2001-10-12',2002);
insert into ontime_all (FlightDate,Year)values('2001-10-12',2003);
insert into ontime_all (FlightDate,Year)values('2001-10-12',2004);
insert into ontime_all (FlightDate,Year)values('2001-10-12',2005);
查询插入的数据:
select count(1) from ontime_all; #查看总行数
select count(1) from ontime_local; #每个节点的行数
每个节点查询到ontime_all的总行数都是相同的,每个查询到的ontime_local的行数之和等于ontime_all的总行数。分布式集群部署成功。
1、配置高速缓存库,需要在连接字符串最后面添加 ?clusterName=smartbi 参数,如下图所示。
2、抽数测试
以新建自助数据集为例
选择一个表(需要带时间字段),刷新并保存数据集
如下图,点击确定保存新的数据集
再次点击分区字段,选择分区字段和分区类型,如下图所示,并点击立即抽取开始抽数。
点击确定,开始抽取
抽取完成。
test1节点:
test2节点:
Smartbimpp分片集群部署成功。
停止服务