HP Vertica Analytics Platform 评測
1.vertica概念
面向数据分析的数据仓库系统解决方式
2.vertica关键特性
Ø 标准的SQL接口:能够利用已有的BI、ETL、Hadoop/MapReduce和OLTP环境
Ø 高可用:内置的冗余也提升了查询速度
Ø 自己主动化数据库设计:数据库自己主动安装、优化、管理
Ø 高级压缩:十多种压缩算法最多可节省90%的空间
Ø 大规模并行处理:执行于低成本的x86型Linux节点上的原生DB感知集群
Ø 列式存储、混合模型:无磁盘I/O瓶颈,加载和查询同一时候进行
Ø 灵活部署:普通硬件、虚拟环境、云平台
3.vertica安装使用
使用社区版的vertica:免费、无功能和时间限制。最多同意1TB的数据、最多同意三个节点的集群。在A、B、C三台Linuxserver上(CentOS5系统)安装配置包括三个节点的可保证高可用的最主要的vertica cluster。
3.1安装
下载特定于平台的vertica安装包,这里下载的是
vertica-7.0.1-0.x86_64.RHEL5.rpm
创建专门用于vertica管理的用户和组
sudo groupadd verticaAdmin
sudo useradd -g verticaAdmin verticaAdmin
sudo passwd verticaAdmin
在当中一台主机,比方A主机先安装vertica
sudo rpm -ivh vertica-7.0.1-0.x86_64.RHEL5.rpm
安装完毕后可在A主机执行/opt/vertica/sbin/install_vertica命令与其它主机搭建vertica cluster
sudo /opt/vertica/sbin/install_vertica –hosts B。C - -rpm /pathto/vertica-7.0.1-0.x86_64.RHEL5.rpm--dba-user verticaAdmin --dba-group verticaAdmin --dba-user-password password--dba-user-home /home/ verticaAdmin --data-dir /data/vertica
3.2几个问题
首先要保证root用户能够通过SSH登录到集群内的全部主机
另外应同意vertica管理员用户,比如上述步骤创建的verticaAdmin,无passwordSSH至集群内其它主机(该步骤会在安装过程中自己主动进行(之所以要保证root用户能SSH到集群内全部主机正是为了此目的)。我们仅仅需保证系统设置同意无password登录就可以)
vertica对I/O调度策略、vertica管理员用户的时区设置、磁盘Readahead的值、文件系统、CPU主频扩展策略等方面有特殊要求。假设你不确定你的系统是否符合这些要求也没关系。仅仅要执行一下上述配置cluster的命令便会自己主动检測并给出提示。仅仅需按提示一步步解决掉问题又一次就能够了。
3.3此次安装过程遇到的问题及解决的方法
(涉及的文件名称、路径、磁盘名称等视你的详细情况而定)
设置I/O调度策略:
sudo sh -c 'echo deadline >/sys/block/sda/queue/scheduler'
并将echo deadline > /sys/block/sda/queue/scheduler写进/etc/rc.local
更新tzdata包。设置时区:
sudo yum update tzdata
在 .profile 或.bashrc /etc/profile中加入export TZ="Asia/Shanghai"
安装pstack、mcelog、sysstat:
yum install pstack
yum install mcelog
yum install sysstat
设置Readahead
sudo blockdev --setra 2048 /dev/sda
sudo blockdev --setra 2048/dev/mapper/VolGroup00-LogVol00
并将命令写进/etc/rc.local
查看和设置CPU频率扩展:
sudo yum install cpufreq-utils
cpufreq-info
sudo cpufreq-set -c CPU序号1。CPU序号2。…… -g performance
配置/etc/ssh/sshd_config中PermitRootLogin为yes并重新启动(一定要重新启动)sshd服务:
sudo vim /etc/ssh/sshd_config
/etc/init.d/sshd restart
成功安装后便能够用admintools来管理vertica了。能够使用admintools命令行模式也能够使用图形界面模式。
也能够使用vsqlclient来连接、查询数据库。若想卸载vertica也非常easy,逐台server执行sudo rpm -e vertica-7.0.1-0就可以。
3.4一些基本命令:
Ø admintools: 执行图形界面。依据界面上的内容和提示进行操作。
Ø admintools –help: 显示可用的命令
Ø admintools –help_all: 显示更详尽的可用命令帮助
Ø admintools –t +详细可用的命名: 使用特定的命令
Ø vsql:连接到vertica
Ø vsql db:连接到详细数据库
Ø 使用vsql创建好连接至vertica的回话后\h用户显示帮助。
4.vertica评測
4.1单节点模式下測试环境准备
数据库、schema、table
最初仅仅启用了一个节点A(也即没有搭建cluster),使用admintools在该节点创建不使用password的数据库 testVertica。使用vsql连接至testVertica数据库。在public这个schema下创建表trace_htlorder、sbtest。
CREATE TABLE trace_htlorder (
TextDataLONG VARCHAR,
TransactionID bigint DEFAULT NULL,
HostNamevarchar(256) DEFAULT NULL,
ApplicationName varchar(256) DEFAULT NULL,
LoginNamevarchar(256) DEFAULT NULL,
SPID intDEFAULT NULL,
Durationbigint DEFAULT NULL,
StartTimedatetime DEFAULT NULL,
EndTimedatetime DEFAULT NULL,
Readsbigint DEFAULT NULL,
Writesbigint DEFAULT NULL,
CPU intDEFAULT NULL,
Successint DEFAULT NULL,
ServerName varchar(256) DEFAULT NULL,
EventClass int DEFAULT NULL,
Error intDEFAULT NULL,
ObjectName char(256) DEFAULT NULL,
DatabaseName varchar(256) DEFAULT NULL,
DBUserName varchar(256) DEFAULT NULL,
RowCountsbigint DEFAULT NULL,
XactSequence bigint DEFAULT NULL,
hashcodebigint DEFAULT NULL,
filtertinyint DEFAULT NULL
)
CREATE TABLE sbtest (
idint NOT NULL,
kint NOT NULL DEFAULT '0',
cchar(120) NOT NULL DEFAULT '',
padchar(60) NOT NULL DEFAULT '',
PRIMARYKEY (id)
);
注意:vertica不支持vertica不支持MySQL中的``、int(N)、comment、text类型、unsigned、AUTO_INCREMENT、KEY k(k)
两个測试文本:
sbtest.txt-17G-包括例如以下格式的数据2亿行(数据来自于sysbench自己主动创建)
1*2000*"aaaaaaaaaaabbbbbbbbbbccccccccccdddddddddd"*"ddddddddddccccccccccbbbbbbbbbbaaaaaaaaaa"
trace_order_less.txt-20G-包括例如以下格式的数据3千万行(数据来自与真实的生产环境)
"SELECT costrate FROM FltOrderDB..O_Flight(nolock) WHERE OrderID=1030812255"*0*"VMS01760"*".NetSqlClient DataProvider"*"uws_W_AppleOrder"*172*0*"2014-05-1500:00:00"*"2014-05-1500:00:00"*4*0*0*0*""*0*0*""*"FltOrderDB"*""*1*0*3384460570715180659*1
4.2 单节点vertica与infobright数据加载測试
单点的社区版vertica
copy public.sbtest from '/tmp/sbtest.txt'DELIMITER '*' ENCLOSED BY '"'DIRECT;
Time: First fetch (1 row): 438790.789 ms. Allrows formatted: 438790.838 ms
数据被压缩为3.8G
copy public.trace_htlorder from'/data/tmp/trace_order_less.txt' DELIMITER '*' ENCLOSED BY '"' DIRECT;
Time: First fetch (1 row): 3926331.365 ms. All rowsformatted: 3926331.419 ms
数据被压缩为1.4G
数据加载过程中vertica会使用到比原始数据文件大得多的磁盘空间, 20G的数据文件LOAD过程中最多的时候会占用到40G的空间
copy 命令三个參数
Ø AUTO 将数据加载WOS。WOS满后直接加载到ROS。适用于<100MB的文件
Ø DIRECT 将数据直接加载到ROS。适用于100MB以上的数据
Ø TRICKLE 适用于增量式的批量插入数据,直接把数据加载到WOS,WOS满后报错,整个加载过程回滚。
社区版infobright
创建数据库和表
create database testInfobright;
use testInfobright;
CREATE TABLE `trace_htlorder` (
`TextData` text,
`TransactionID` bigint(20) DEFAULT NULL,
`HostName` varchar(256) DEFAULT NULL COMMENT 'lookup',
`ApplicationName` varchar(256) DEFAULT NULL,
`LoginName` varchar(256) DEFAULT NULL COMMENT 'lookup',
`SPID`int(11) DEFAULT NULL,
`Duration` bigint(20) DEFAULT NULL,
`StartTime` datetime DEFAULT NULL,
`EndTime`datetime DEFAULT NULL,
`Reads`bigint(20) DEFAULT NULL,
`Writes`bigint(20) DEFAULT NULL,
`CPU`int(11) DEFAULT NULL,
`Success`int(11) DEFAULT NULL,
`ServerName` varchar(256) DEFAULT NULL COMMENT 'lookup',
`EventClass` int(11) DEFAULT NULL,
`Error`int(11) DEFAULT NULL,
`ObjectName` varchar(256) DEFAULT NULL COMMENT 'lookup',
`DatabaseName` varchar(256) DEFAULT NULL COMMENT 'lookup',
`DBUserName` varchar(256) DEFAULT NULL,
`RowCounts` bigint(20) DEFAULT NULL,
`XactSequence` bigint(20) DEFAULT NULL,
`hashcode`bigint(20) DEFAULT NULL,
`filter`tinyint(4) DEFAULT NULL
) ENGINE=BRIGHTHOUSE DEFAULT CHARSET=utf8
CREATE TABLE `sbtest` (
`id`bigint(10) NOT NULL,
`k`int(10) NOT NULL DEFAULT '0',
`c`char(120) NOT NULL DEFAULT '',
`pad`char(60) NOT NULL DEFAULT ''
)
相同的两个数据文件sbtest.txt、trace_order_less.txt
load data infile '/data/tmp/sbtest.txt' intotable testInfobright.sbtest FIELDS TERMINATED BY '*' OPTIONALLY ENCLOSED BY'"' ;
Query OK, 200000000 rows affected (40 min 38.89sec)
数据被压缩为2.8G
load data infile '/data/tmp/trace_order_less.txt'into table testInfobright.trace_htlorder FIELDS TERMINATED BY '*' OPTIONALLYENCLOSED BY '"' ;
Query OK, 30000000 rows affected (11 min 13.68sec)
数据被压缩为0.45G
结论:
|
Infobright |
Vertica |
Infobright |
Vertica |
导入文件类型 |
sysbench压測工具生成的格式化数据。每行的文本内容具有基本同样的长度和内容 |
生产环境DB实际产生的trace信息,包括各种不同的调用语句,文本长度和内容都各异 |
||
原始文件大小(GB) |
17 |
20 |
||
导入后大小(GB) |
2.8 |
3.8 |
0.45 |
1.4 |
压缩比 |
83% |
77% |
97% |
93% |
导入时间(sec) |
2440 |
438 |
673 |
3926 |
导入速度(MB/sec) |
7.13 |
39.74 |
30.43 |
5.21 |
4.3单点的vertica与infobright数据查询測试
trace_htlorder表6千万行数据
#经常使用查询 WHERE BETWEEN AND LIKE ORDER BY
sql01 = "SELECTTextData,StartTime,EndTime,DatabaseName,ObjectName,HostName,ApplicationName,LoginName,Duration,Reads,Writes,CPU,RowCounts,Error,HashCodeFROM trace_htlorder WHERE StartTime >= '2014-05-15 00:00:00 ' AND StartTime< '2014-05-15 02:00:00
' AND TextData LIKE '%GROUP BY%' ORDER BY StartTime"
total: 457.178461075
total: 2516.28422379
#经常使用查询 WHERE BETWEEN AND LIKE GROUP BY
sql02 = "SELECTTextData,StartTime,EndTime,DatabaseName ,ObjectName,HostName,ApplicationName,LoginName,Duration,Reads,Writes,CPU,RowCounts,Error,HashCodeFROM trace_htlorder WHERE StartTime >= '2014-05-15 00:00:00 ' AND StartTime< '2014-05-15
02:00:00 ' AND TextData LIKE '%GROUP BY%' GROUP BY TextData,StartTime,EndTime,DatabaseName,ObjectName,HostName,ApplicationName,LoginName,Duration,Reads,Writes,CPU,RowCounts,Error,HashCode"
total: 278.15408802
total: 3426.65513086
#全字段,无条件 一千万行
sql03 = "SELECT TextData,TransactionID,HostName ,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes,CPU ,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROMtrace_htlorder limit 100000"
total: 60.5239160061
total: 26.4451019764
#个别字段,无条件 一千万行
sql04= "SELECT HostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorder limit100000"
total: 3.23667478561
total: 3.97934985161
#全字段,WHERE BETWEEN AND LIKE GROUP BY
sql05 = "SELECT TextData,TransactionID,HostName ,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes,CPU ,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROMtrace_htlorder WHERE StartTime >= '2014-05-15 00:00:00 ' AND StartTime <'2014-05-15 02:00:00 ' AND TextData LIKE '%GRUOP BY%' GROUP BY TextData,TransactionID ,HostName
,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes,CPU ,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCounts,XactSequence,hashcode,filter"
total: 58.3177318573
total: 1042.12857699
#个别字段,WHERE BETWEEN AND LIKE GROUP BY
sql06 = "SELECT HostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorder WHEREStartTime >= '2014-05-15 00:00:00 ' AND StartTime < '2014-05-15 02:00:00' AND TextData LIKE '%GRUOP BY%' GROUPBY HostName ,ApplicationName,ServerName,DatabaseName,DBUserName"
total: 53.3943109512
total: 987.122587919
#全字段,WHERE BETWEEN AND LIKE ORDER BY 分别按不同字段排序DESC/ASC
sql07 = "SELECT TextData,TransactionID,HostName,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes ,CPU,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROMtrace_htlorder WHERE StartTime >= '2014-05-15 00:00:00 ' AND StartTime <'2014-05-15 02:00:00 ' AND TextData LIKE '%GRUOP BY%' ORDER BY Duration DESC"
total: 39.8180880547
total: 984.204402924
sql08 = "SELECT TextData,TransactionID,HostName ,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes,CPU ,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROMtrace_htlorder WHERE StartTime >= '2014-05-15 00:00:00 ' AND StartTime <'2014-05-15 02:00:00 ' AND TextData LIKE '%GRUOP BY%' ORDER BY Duration ASC"
total: 40.1778831482
total: 984.4428339
sql09 = "SELECT TextData,TransactionID,HostName,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes ,CPU,Success,ServerName,EventClass,Error,ObjectName, DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROMtrace_htlorder WHERE StartTime >= '2014-05-15 00:00:00 ' AND StartTime <'2014-05-15 02:00:00 ' AND TextData LIKE '%GRUOP BY%' ORDER BY SPID DESC"
total: 39.5487890244
total: 984.184374094
sql10 = "SELECT TextData,TransactionID,HostName,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes ,CPU,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROM trace_htlorderWHERE StartTime >= '2014-05-15 00:00:00 ' AND StartTime < '2014-05-1502:00:00 ' AND TextData LIKE '%GRUOP BY%' ORDER BY SPID ASC"
total: 39.7879989147
total: 984.206639051
#个别字段,WHERE BETWEEN AND LIKE ORDER BY 分别按不同字段排序DESC/ASC
sql11 = "SELECTHostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorderWHERE StartTime >= '2014-05-15 00:00:00 ' AND StartTime < '2014-05-1502:00:00 ' AND TextData LIKE '%GRUOP BY%' ORDER BY Duration DESC;"
total: 48.5239658356
total: 990.392697096
sql12 = "SELECT HostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorder WHEREStartTime >= '2014-05-15 00:00:00 ' AND StartTime < '2014-05-15 02:00:00' AND TextData LIKE '%GRUOP BY%' ORDERBY Duration ASC"
total: 48.5928411484
total: 990.359231949
sql13 = "SELECT HostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorder WHEREStartTime >= '2014-05-15 00:00:00 ' AND StartTime < '2014-05-15 02:00:00' AND TextData LIKE '%GRUOP BY%' ORDERBY SPID DESC"
total: 48.5275650024
total: 990.474725962
sql14 = "SELECT HostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorder WHEREStartTime >= '2014-05-15 00:00:00 ' AND StartTime < '2014-05-15 02:00:00' AND TextData LIKE '%GRUOP BY%' ORDERBY SPID ASC"
total: 48.8557629585
total: 990.433614969
total为无间断连续执行十次的总时间。上边为vertica的值,下边为infobright的值
14条语句各执行十遍的总时间:
vertica:1264.63847303
infobright:15901.3139489
结论
对于包括like、groupby、order by等条件的数据 。vertica查询速度明显快于infobright。最快可达20倍以上。
对于没有查询条件的语句两者相当。查询列为所有字段时vertica劣于infobright。查询列为部分字段时vertica略优于infobright。
注意事项
vertica中 longvarchar 不支持 LIKE操作,仅仅有char。varchar,binary。varbinary支持。所以需先将原long varchar改为varchar
alter table trace_htlorder alter column TextDataset data type varchar(65000);
infobright SQL 中不能包括keyword 如 database,host,writes,reads等。keyword需用反引號括起来。若是在linux shell里直接以命令方式运行还需对反引號转义,否则会被解析为命令。
4.4測试包括三个节点的verticacluster(k-safety设置为1)导入数据
查看cluster状态
dmintools -t view_cluster
DB | Host | State
-------------+------+-------
testVertica | ALL | UP
查看cluster中的节点
admintools -t list_allnodes;
Node | Host | State | Version | DB
------------------------+---------------+-------+-------------------+-------------
v_testvertica_node0001 | 192.X.X.A | UP | vertica-7.0.1.000 | testVertica
v_testvertica_node0003 | 192.X.X.B | UP | vertica-7.0.1.000 | testVertica
v_testvertica_node0004 | 192.X.X.C | UP | vertica-7.0.1.000 | testVertica
測试用的数据库表
databases:testVertica
schema:public
table:sbtest、trace_htlorder
測试仅仅在v_testvertica_node0001节点导入数据后的数据分布情况
数据:sbtest.txt -17G-2亿行
copy public.sbtest from '/data/tmp/sbtest.txt' onv_testvertica_node0001 DELIMITER'*' ENCLOSED BY '"' DIRECT;
Time: First fetch (1 row): 233226.446 ms. Allrows formatted: 233226.528 ms
原来单节点时时间的一般左右。数据被压缩后各节点上大约有2.5G总共2.5*3=7.5G刚好是原来3.8G的两倍左右,证明vertica在cluster内存储了两个副本以保证值为1的k-safety
数据:trace_order_less.txt -20G-3千万行
copy public.trace_htlorder from '/data/tmp/trace_order_less.txt'on v_testvertica_node0001 DELIMITER'*' ENCLOSED BY '"' DIRECT;
Time: First fetch (1 row): 1927267.476 ms. Allrows formatted: 1927267.623 ms
原来单节点时时间的一般左右,数据被压缩后各节点上大约有1G总共1*3=3G刚好是原来1.4G的两倍左右,证明vertica在cluster内存储了两个副本以保证值为1的k-safety
測试在v_testvertica_node0001、 v_testvertica_node0003、 v_testvertica_node0004多节点并行导入
数据:sbtest.txt -17G-2亿行,分别存在于A、B、C三个节点中
copy public.sbtest from '/data/tmp/sbtest.txt' onv_testvertica_node0001,'/tmp/sbtest.txt' on v_testvertica_node0003,'/tmp/sbtest.txt'on v_testvertica_node0004 DELIMITER '*' ENCLOSED BY '"' DIRECT;
Time: First fetch (1 row): 364039.015 ms. Allrows formatted: 364039.062 ms
6亿行数据被导入cluster用时6.3分钟
数据:trace_order_less.txt -20G-3千万行,别存在于A、B、C三个节点中
copy public.trace_htlorder from'/data/tmp/trace_order_less.txt' onv_testvertica_node0001,'/tmp/trace_order_less.txt' onv_testvertica_node0003,'/tmp/trace_order_less.txt' on v_testvertica_node0004DELIMITER '*' ENCLOSED BY '"'DIRECT;
Time: First fetch (1 row): 6336117.459 ms. Allrows formatted: 6336117.554 ms
9千万行数据被导入cluster用时105分钟
vertica cluster故障恢复測试
先检查数据
select count(*) from sbtest;
select count(*) from trace_htlorder;
查看cluster状态
dmintools -t view_cluster
DB | Host | State
-------------+------+-------
testVertica | ALL | UP
关闭B上的vertica,并查看状态
admintools -t stop_node -s 192.X.X.B
admintools -t view_cluster
DB | Host | State
-------------+---------------+-------
testVertica | 192.X.X.A | UP
testVertica| 192.X.X.B | DOWN
testVertica | 192.X.X.C | UP
又一次检查数据发现数据并未丢失,还是原来的数目
select count(*) from sbtest;
select count(*) from trace_htlorder;
重新启动B上的vertica,并查看状态
admintools -t restart_node -d testVertica -s 192.X.X.B
admintools -t view_cluster
DB | Host | State
-------------+------+-------
testVertica | ALL | UP
整个集群恢复原状
逐次关闭B、C上的vertica。并查看状态
admintools -t stop_node -s 192.X.X.B
admintools -t stop_node -s 192.X.X.C
admintools -t view_cluster
DB | Host | State
-------------+------+-------
testVertica | ALL | DOWN
发现我们尽管仅仅关闭了两个节点,另一个节点没有手工关闭。但vertica已经很智能的关闭了整个cluster。由于这时一个node已经不能保证高可用了。该node一旦异常down掉数据便会损失。所以vertica干脆关掉整个cluster。
重新启动整个cluster
admintools –t start_db –d testVertica
參考:
https://my.vertica.com/docs/7.0.x/HTML/index.htm
附件:
vertica的python连接器:vertica-python-0.2.0的安装
require:Python2.7、zlib-devel、openssl-devel、pytz、python-dateutil、pip、psycopg2
python-dateutil
require:six
psycopg2
require: postgresql-devel
yum install zlib-devel
yum install openssl-devel
yum install postgresql-devel
cd Python2.7->./configure --with-zlib ->make -> sudo make install
cd pytz ->sudo python2.7 setup.py install
cd six ->sudo python2.7 setup.py install
cd python-dateutil ->sudo python2.7 setup.pyinstall
cd pip ->sudo python2.7 setup.py install
cd psycopg ->sudo python2.7 setup.py install
cdvertica-python ->sudo python2.7 setup.py install#encoding:utf-8
使用SQL命令执行DBD(DatabaseDesigner)
selectDESIGNER_CREATE_DESIGN('testVerticaDesigner');
select DESIGNER_SET_DESIGN_KSAFETY('testVerticaDesigner',1);
SELECTDESIGNER_SET_OPTIMIZATION_OBJECTIVE('testVerticaDesigner','QUERY');
SELECTDESIGNER_SET_DESIGN_TYPE('testVerticaDesigner','INCREMENTAL');
SELECTDESIGNER_ADD_DESIGN_QUERIES('testVerticaDesigner','/home/op1/testVertia/querys.sql','true');
SELECTDESIGNER_ADD_DESIGN_TABLES('testVerticaDesigner','public.trace_htlorder','true');
SELECTDESIGNER_RUN_POPULATE_DESIGN_AND_DEPLOY('testVerticaDesigner','/home/op1/testVertia/vertica_design_files/vertica_design_DDL','/home/op1/testVertia/vertica_design_files/vertica_design_deployment_scripts');
SELECTDESIGNER_WAIT_FOR_DESIGN('testVerticaDesigner');
SELECTDESIGNER_OUTPUT_ALL_DESIGN_PROJECTIONS('testVerticaDesigner');
SELECTDESIGNER_OUTPUT_DEPLOYMENT_SCRIPT('testVerticaDesigner')
SELECTDESIGNER_CANCEL_POPULATE_DESIGN('testVerticaDesigner')
SELECTDESIGNER_DROP_DESIGN('testVerticaDesigner')
HP Vertica Analytics Platform 评測的更多相关文章
- 卓尼斯ZT-180评測
卓尼斯ZT-180评測 ——正在出差途中,用10”上网本发帖,没有拍照,且写得冲忙,不妥之处见谅. 一.採购 1.因外出旅游,不想带那台14"笔记本,所以想买一台平板电脑.当时,选择的 ...
- Kyligence Analytics Platform Enterprise
平台: arm 类型: ARM 模板 软件包: kap 2.3 kyanalyzer 2.3 apache kylin basic software bi big data cube data war ...
- iPad Air 2全然评測:可怕的三核CPU、六核GPU
在了解了三核心A8X的基本情况后.我们再来通过測试数据,全面地了解一下iPad Air 2的性能表现,包含CPU.GPU.存储.电池.屏幕.摄像头.导航等等. [CPU性能測试:三核太可怕了] 移动处 ...
- 搜狐云景client工具评測之WordPress的搭建
搜狐云景是搜狐推出的一款PaaS产品,眼下还处在公測阶段,拿到邀请码后试用了一下,感觉还不错. 搜狐云景提供了四种方式部署应用,感觉应该能够满足各种口味的码农:1. zip包的形式在网页上传并部署 ...
- 视频编码器评測系统:VideoCodecRank
视频编码器领域一直有个比較复杂的问题:mpeg2.divx.xvid.mpeg4.vp8.vp9.x264.openh264.x265等等这一系列编码器究竟哪个好?而对于同一种视频编码器,又包括了各种 ...
- UnityTestTools測试工具
由于工作关系,要了解Unity上的測试工具,该工具基于Nunit框架.通过查阅资料了解到在Unity5.3中做出了一些改变,自带的仅仅剩下单元測试工具,假设想用其它的工具比方断言.集成測试,就须要前往 ...
- Vertica集群扩容实验过程记录
需求: 将3个节点的Vertica集群扩容,额外增加3个节点,即扩展到6个节点的Vertica集群. 实验环境: RHEL 6.5 + Vertica 7.2.2-2 步骤: 1.三节点Vertica ...
- ETL from hadoop to vertica
根据项目需要,我做了一个POC(proof of concept),XML TXT的数据从HADOOP 引入到VERTICA. 我采用的方案是pig,具体信息可以参加vertica官方的文档. Acc ...
- Testin云測试破7000万次:崩溃成90%手游应用质量难题
Testin云測试破7000万次:崩溃成90%手游应用质量难题 2014/11/13 · Testin · 业界资讯 11月13日.全球最大的移动游戏.应用真机和用户云測试平台Testin云測宣布,已 ...
随机推荐
- redux使用需要注意的地方
1. react和redux没有直接联系,当react需要结合redux使用的时候,需要引入 react-redux ,该插件提供了connet等方法使得react可以注入redux属性. 2. re ...
- Lis(bzoj 3532)
Description 给定序列A,序列中的每一项Ai有删除代价Bi和附加属性Ci.请删除若干项,使得4的最长上升子序列长度减少至少1,且付出的代价之和最小,并输出方案. 如果有多种方案,请输出 ...
- 【HDOJ5973】Game of Taking Stones(Java,威佐夫博弈)
思路:有两堆石子,数量任意,可以不同.游戏开始由两个人轮流取石子. 游戏规定,每次有两种不同的取法,一是可以在任意的一堆中取走任意多的石子:二是可以在两堆中同时取走相同数量的石子. 最后把石子全部取完 ...
- Array拼接字符串
原文发布时间为:2011-01-12 -- 来源于本人的百度文章 [由搬家工具导入] Array拼接字符串本来就是一种投机取巧的无聊玩意,来源是IE6对字符串的+实现错误一般情况下,如果是语义性的字符 ...
- 案子前申請 EVB board (Evaluation Board)
在跑案子前, 需向各 component vendor 申請 EVB board, 其中也包含 mosfet , 以利做實驗, spec 有可能會寫錯 或不清楚, 所以需要使用 EVB board 檢 ...
- python fromkeys的坑
有个不定长的列表,想把列表中的每个值当做字典的key, 初始值为空列表,于是想到了fromkeys这个方法 In [337]: l = ['a','b','c'] In [338]: res = di ...
- DNS+CDN
参考: 一起学DNS系列文章:http://jeffyyko.blog.51cto.com/28563/186026 CDN技术原理:http://kb.cnblogs.com/page/121664 ...
- hdu 3579(中国剩余定理+考虑0)
Hello Kiki Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 32768/32768 K (Java/Others)Total ...
- [TJOI2016][HEOI2016]排序
题目大意: 给定一个$1\sim n(n\leq10^5)$的全排列,有$m(m\leq10^5)$次操作,每次把区间$[l,r]$按照升序或降序排序.最后询问所有操作完成后,位置为$q$的数是多少. ...
- ORACLE SQL*PLUS环境变量设置及说明
1:查看当前用户的环境设置: SQL> define DEFINE _DATE " (CHAR) DEFINE _CONNECT_IDENTIFIER = "updb&quo ...