MySQL全面瓦解29:使用Partition功能实现水平分区
1 回顾
上一节我们详细讲解了如何对数据库进行分区操作,包括了 垂直拆分(Scale Up 纵向扩展)和 水平拆分(Scale Out 横向扩展) ,同时简要整理了水平分区的几种策略,现在来回顾一下。
2 水平分区的5种策略
2.1 Hash(哈希)
这种策略是通过对表的一个或多个列的Hash Key进行计算,最后通过这个Hash码不同数值对应的数据区域进行分区。例如我们可以建立一个对表的日期的年份进行分区的策略,这样每个年份都会被聚集在一个区间。
1 PARTITION BY HASH(YEAR(createtime))
2 PARTITIONS 10
2.2 Range(范围)
这种策略是将数据划分不同范围。例如我们可以将一个千万级别的表通过id划分成4个分区,每个分区大约500W的数据,超过750W后的数据统一放在第4个分区。
1 PARTITION BY RANGE(id) (
2 PARTITIONP0 VALUES LESS THAN(2500001),
3 PARTITIONP1 VALUES LESS THAN(5000001),
4 PARTITIONp2 VALUES LESS THAN(7500001),
5 PARTITIONp3 VALUES LESS THAN MAXVALUE
6 )
2.3 Key(键值)
Hash策略的一种延伸,这里的Hash Key是MySQL系统产生的。
2.4、List(预定义列表)
这种策略允许系统通过定义列表的值所对应的行数据进行分割。例如,我们根据岗位编码进行分区,不同岗位类型的编码对应到不同的分区去,达到分治的目的。
1 PARTITION BY LIST(gwcode) (
2 PARTITIONP0 VALUES IN (46,77,89),
3 PARTITIONP1 VALUES IN (106,125,177),
4 PARTITIONP2 VALUES IN (205,219,289),
5 PARTITIONP3 VALUES IN (302,317,458,509,610)
6 )
上述的SQL脚本,使用了列表匹配LIST函数对员工岗位编号进行分区,共分为4个分区,行政岗位 编号为46,77,89的对应在分区P0中,技术岗位 106,125,177类别在分区P1中,依次类推即可。
2.5、Composite(复合模式)
复合模式其实就是对上面几种模式的组合使用,比如你在Range的基础上,再进行Hash 哈希分区。
3 测试Range策略
3.1 建立总表与分表
我们建立一个普通的用户表 users,再建立一个分区表users_part,将80年代出生的用户按照年份进行了分区,如下:
3.1.1 总表语句
1 mysql> CREATE TABLE users
2 (
3 "id" int(10) unsigned NOT NULL,
4 "name" varchar(100) DEFAULT NULL,
5 "birth" datetime
6 ) ENGINE=InnoDB DEFAULT CHARSET=utf8;
7 Query OK, 0 rows affected
3.1.2 分表语句
1 mysql> create table users_part
2 (
3 "id" int(10) unsigned NOT NULL,
4 "name" varchar(100) DEFAULT NULL,
5 "birth" datetime
6 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
7 PARTITION BY RANGE (year(birth)) (
8 PARTITION p0 VALUES LESS THAN (1981),
9 PARTITION p1 VALUES LESS THAN (1982),
10 PARTITION p2 VALUES LESS THAN (1983),
11 PARTITION p3 VALUES LESS THAN (1984),
12 PARTITION p4 VALUES LESS THAN (1985),
13 PARTITION p5 VALUES LESS THAN (1986),
14 PARTITION p6 VALUES LESS THAN (1987),
15 PARTITION p7 VALUES LESS THAN (1988),
16 PARTITION p8 VALUES LESS THAN (1989),17 PARTITION p9 VALUES LESS THAN MAXVALUE
18 );
19 Query OK, 0 rows affected
最后一行注意一下,是将89年之后出生的都归属到第10个分区上,我们这边模拟的都是80年代出生的用户,实际业务中跟据具体情况进行拆分。
3.2 初始化表数据
我们可以使用函数或者存储过程批量进行数据初始化,这边插入1000W条数据。
1 DROP PROCEDURE IF EXISTS init_users_part;
2
3 delimiter $ /* 设定语句终结符为 $*/
4 CREATE PROCEDURE init_users_part()
5 begin
6 DECLARE srt int default 0;
7 while
8 srt < 10000000 /* 设定写入1000W的数据 */
9 do
10 insert into `users_part` values (srt, concat('username_',idx1),adddate('1980-01-01',rand() * 3650)); /*在10年的时间内随机取值*/
11 set srt = srt + 1;
12 end while;
13 end $
14 delimiter ;
15
16
17 call init_users_part();
3.3 同步数据至完整表中
1 mysql> insert into users select * from users_part; //将1000w数据复制到未分区的完整表users 中
2 Query OK, 10000000 rows affected (51.59 sec)
3 Records: 10000000 Duplicates: 0 Warnings: 0
3.4 测试执行SQL的效率
1 mysql> select count(*) from users_part where `birth` > '1986-01-01' and `birth` < '1986-12-31';
2 +----------+
3 | count(*) |
4 +----------+
5 | 976324 |
6 +----------+
7 1 row in set (0.335 sec)
8
9 mysql> select count(*) from users where `birth` > '1986-01-01' and `birth` < '1986-12-31';
10 +----------+
11 | count(*) |
12 +----------+
13 | 976324 |
14 +----------+
15 1 row in set (5.187 sec)
结果比较清晰,分区表的执行效率确实比较高,执行时间是未分区表 1/10 都不到。
3.5 使用Explain执行计划分析
1 mysql> explain select count(*) from users_part where `birth` > '1986-01-01' and `birth` < '1986-12-31';
2 +----+-------------+------------+------------+------+---------------+------+---------+------+-------+----------+-------------+
3 | id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
4 +----+-------------+------------+------------+------+---------------+------+---------+------+-------+----------+-------------+
5 | 1 | SIMPLE | users_part | p7 | ALL | NULL | NULL | NULL | NULL | 987769| 100.00 | Using where |
6 +----+-------------+------------+------------+------+---------------+------+---------+------+-------+----------+-------------+
7 1 row in set, 1 warning (0.00 sec)
8
9 mysql> explain select count(*) from users where `birth` > '1986-01-01' and `birth` < '1986-12-31';
10 +----+-------------+-------+------------+------+---------------+------+---------+------+---------+----------+-------------+
11 | id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
12 +----+-------------+-------+------------+------+---------------+------+---------+------+---------+----------+-------------+
13 | 1 | SIMPLE | users | NULL | ALL | NULL | NULL | NULL | NULL |10000000 | 100.00 | Using where |
14 +----+-------------+-------+------------+------+---------------+------+---------+------+---------+----------+-------------+
15 1 row in set, 1 warning (0.00 sec)
这边关注两个关键参数:一个 是partitions,users_part中是p7,说明数据检索在第七分区中,users表是null的,说明是全区域扫描,无分区。
另外一个参数是rows,是预测扫描的行数,users表明显是全表扫描。
3.6 建索引提效
因为我们使用birth字段进行分区和条件查询,所以这边尝试在birth字段上简历索引进行效率优化。
1 mysql> create index idx_user on users(birth);
2 Query OK, 0 rows affected (1 min 7.04 sec)
3 Records: 10000000 Duplicates: 0 Warnings: 0
4
5 mysql> create index idx_user_part on users_part(birth);
6 Query OK, 0 rows affected (1 min 1.05 sec)
7 Records: 10000000 Duplicates: 0 Warnings: 0
创建索引后的数据库文件大小列表:
2008-05-24 09:23 8,608 no_part_tab.frm
2008-05-24 09:24 255,999,996 no_part_tab.MYD
2008-05-24 09:24 81,611,776 no_part_tab.MYI
2008-05-24 09:25 0 part_tab#P#p0.MYD
2008-05-24 09:26 1,024 part_tab#P#p0.MYI
2008-05-24 09:26 25,550,656 part_tab#P#p1.MYD
2008-05-24 09:26 8,148,992 part_tab#P#p1.MYI
2008-05-24 09:26 25,620,192 part_tab#P#p10.MYD
2008-05-24 09:26 8,170,496 part_tab#P#p10.MYI
2008-05-24 09:25 0 part_tab#P#p11.MYD
2008-05-24 09:26 1,024 part_tab#P#p11.MYI
2008-05-24 09:26 25,656,512 part_tab#P#p2.MYD
2008-05-24 09:26 8,181,760 part_tab#P#p2.MYI
2008-05-24 09:26 25,586,880 part_tab#P#p3.MYD
2008-05-24 09:26 8,160,256 part_tab#P#p3.MYI
2008-05-24 09:26 25,585,696 part_tab#P#p4.MYD
2008-05-24 09:26 8,159,232 part_tab#P#p4.MYI
2008-05-24 09:26 25,585,216 part_tab#P#p5.MYD
2008-05-24 09:26 8,159,232 part_tab#P#p5.MYI
2008-05-24 09:26 25,655,740 part_tab#P#p6.MYD
2008-05-24 09:26 8,181,760 part_tab#P#p6.MYI
2008-05-24 09:26 25,586,528 part_tab#P#p7.MYD
2008-05-24 09:26 8,160,256 part_tab#P#p7.MYI
2008-05-24 09:26 25,586,752 part_tab#P#p8.MYD
2008-05-24 09:26 8,160,256 part_tab#P#p8.MYI
2008-05-24 09:26 25,585,824 part_tab#P#p9.MYD
2008-05-24 09:26 8,159,232 part_tab#P#p9.MYI
2008-05-24 09:25 8,608 part_tab.frm
2008-05-24 09:25 68 part_tab.par
再次测试SQL性能
1 mysql> select count(*) from users_part where `birth` > '1986-01-01' and `birth` < '1986-12-31';
2 +----------+
3 | count(*) |
4 +----------+
5 | 976324 |
6 +----------+
7 1 row in set (0.171 sec)
8
9 mysql> select count(*) from users where `birth` > '1986-01-01' and `birth` < '1986-12-31';
10 +----------+
11 | count(*) |
12 +----------+
13 | 976324 |
14 +----------+
15 1 row in set (0.583 sec)
这边可以看到,在关键的字段添加索引并重启(net stop mysql,net start mysql)之后,分区的表性能有略微提升。而未分区的全表性能提升最明显,几乎接近分区的效率。
3.7 跨区执行效率分析
通过上面的分析可以看出,在单个区内执行,比不分区效率又很明显的差距,这是因为分区之后扫描非范围缩小了。
那如果我们上面条件增加出生年份的范围,让他产生跨区域的情况,效果会怎么样呢,我们测试一下。
1 mysql> select count(*) from users_part where `birth` > '1986-01-01' and `birth` < '1987-12-31';
2 +----------+
3 | count(*) |
4 +----------+
5 | 976324 |
6 +----------+
7 1 row in set (1.914 sec)
8
9 mysql> select count(*) from users where `birth` > '1986-01-01' and `birth` < '1987-12-31';
10 +----------+
11 | count(*) |
12 +----------+
13 | 976324 |
14 +----------+
15 1 row in set (3.871 sec)
可见,跨区之后性能会差一些。这边应该这样理解,跨区的越多,性能越差,所以做分区设计的时候应该意识到,避免那种频繁的跨区情况发生,谨慎判断分区边界条件。
3.8 总结
1、分区和未分区占用文件空间大致相同 (数据和索引文件)
2、查询语句中关键字段未建立索引字段时,分区时间远远优于未分区时间
3、如果查询语句中字段建立了索引,分区和未分区的差别缩小,但是仍然优于未分区情况,而且随着数据量增加,这个优势会更明显。
4、对于大数据量,还是建议使用分区功能,无论他有没有建立索引。
5、根据MySQL手册, 增加myisam_max_sort_file_size 会增加分区性能( mysql重建索引时允许使用的临时文件最大大小)
6、对分区进行设计时,谨慎判断分区边界条件,避免有过度频繁的跨区操作,否则性能不会理想。
4 分区策略详解
4.1 HASH(哈希)
HASH分区主要用来确保数据在预先确定数目的分区中平均分布,而在RANGE和LIST分区中,必须明确指定一个给定的列值或列值集合应该保存在哪个分区中,
而在HASH分区中,MySQL自动完成这些工作,
你所要做的只是基于将要被哈希的列值指定一个列值或表达式,以及指定被分区的表将要被分割成的分区数量。 示例如下:
1 /*Hash*/
2 drop table if EXISTS `t_userinfo`;
3 CREATE TABLE `t_userinfo` (
4 `id` int(10) unsigned NOT NULL,
5 `personcode` varchar(20) DEFAULT NULL,
6 `personname` varchar(100) DEFAULT NULL,
7 `depcode` varchar(100) DEFAULT NULL,
8 `depname` varchar(500) DEFAULT NULL,
9 `gwcode` int(11) DEFAULT NULL,
10 `gwname` varchar(200) DEFAULT NULL,
11 `gravalue` varchar(20) DEFAULT NULL,
12 `createtime` DateTime NOT NULL
13 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
14 PARTITION BY HASH(YEAR(createtime))
15 PARTITIONS 4(
16 PARTITION P0 DATA DIRECTORY = '/data0/data' INDEX DIRECTORY = '/data0/idx',
17 PARTITION P1 DATA DIRECTORY = '/data1/data' INDEX DIRECTORY = '/data1/idx',
18 PARTITION P2 DATA DIRECTORY = '/data2/data' INDEX DIRECTORY = '/data2/idx',
19 PARTITION P3 DATA DIRECTORY = '/data3/data' INDEX DIRECTORY = '/data3/idx'
20 );
上面的例子,使用HASH函数对createtime日期进行HASH运算,并根据这个日期来分区数据,这里共分为10个分区。
建表语句上添加一个“PARTITION BY HASH (expr)”子句,其中“expr”是一个返回整数的表达式,它可以是字段类型为MySQL 整型的一列的名字,也可以是返回非负数的表达式。
另外,可能需要在后面再添加一个“PARTITIONS num”子句,其中num 是一个非负的整数,它表示表将要被分割成分区的数量。
每个分区都有自己独立的数据、索引文件的存放目录,并且这些目录所在的物理磁盘分区可能也都是完全独立的,可以提高磁盘IO吞吐量。
4.2 RANGE(范围)
基于属于一个给定连续区间的列值,把多行分配给同一个分区,这些区间要连续且不能相互重叠,使用VALUES LESS THAN操作符来进行定义。示例如下:
1 /*Range*/
2 drop table if EXISTS `t_userinfo`;
3 CREATE TABLE `t_userinfo` (
4 `id` int(10) unsigned NOT NULL,
5 `personcode` varchar(20) DEFAULT NULL,
6 `personname` varchar(100) DEFAULT NULL,
7 `depcode` varchar(100) DEFAULT NULL,
8 `depname` varchar(500) DEFAULT NULL,
9 `gwcode` int(11) DEFAULT NULL,
10 `gwname` varchar(200) DEFAULT NULL,
11 `gravalue` varchar(20) DEFAULT NULL,
12 `createtime` DateTime NOT NULL
13 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
14 PARTITION BY RANGE(gwcode) (
15 PARTITION P0 VALUES LESS THAN(101) DIRECTORY = '/data0/data' INDEX DIRECTORY = '/data0/idx',
16 PARTITION P1 VALUES LESS THAN(201) DIRECTORY = '/data1/data' INDEX DIRECTORY = '/data1/idx',
17 PARTITION P2 VALUES LESS THAN(301) DIRECTORY = '/data2/data' INDEX DIRECTORY = '/data2/idx',
18 PARTITION P3 VALUES LESS THAN MAXVALUE DIRECTORY = '/data3/data' INDEX DIRECTORY = '/data3/idx'
19 );
上面的示例,使用了范围RANGE函数对岗位编号进行分区,共分为4个分区,
岗位编号为1~100 的对应在分区P0中,101~200的编号在分区P1中,依次类推即可。那么类别编号大于300,可以使用MAXVALUE来将大于300的数据统一存放在分区P3中即可。
每个分区都有自己独立的数据、索引文件的存放目录,并且这些目录所在的物理磁盘分区可能也都是完全独立的,可以提高磁盘IO吞吐量。
4.3 LIST(预定义列表)
类似于按RANGE分区,区别在于LIST分区是基于列值匹配一个离散值集合中的某个值来进行选择分区的。LIST分区通过使用“PARTITION BY LIST(expr)”来实现,其中“expr” 是某列值或一个基于某个列值、并返回一个整数值的表达式,
然后通过“VALUES IN (value_list)”的方式来定义每个分区,其中“value_list”是一个通过逗号分隔的整数列表。 示例如下:
1 /*List*/
2 drop table if EXISTS `t_userinfo`;
3 CREATE TABLE `t_userinfo` (
4 `id` int(10) unsigned NOT NULL,
5 `personcode` varchar(20) DEFAULT NULL,
6 `personname` varchar(100) DEFAULT NULL,
7 `depcode` varchar(100) DEFAULT NULL,
8 `depname` varchar(500) DEFAULT NULL,
9 `gwcode` int(11) DEFAULT NULL,
10 `gwname` varchar(200) DEFAULT NULL,
11 `gravalue` varchar(20) DEFAULT NULL,
12 `createtime` DateTime NOT NULL
13 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
14 PARTITION BY LIST(`gwcode`) (
15 PARTITION P0 VALUES IN (46,77,89) DATA DIRECTORY = '/data0/data' INDEX DIRECTORY = '/data0/idx',
16 PARTITION P1 VALUES IN (106,125,177) DATA DIRECTORY = '/data1/data' INDEX DIRECTORY = '/data1/idx',
17 PARTITION P2 VALUES IN (205,219,289) DATA DIRECTORY = '/data2/data' INDEX DIRECTORY = '/data2/idx',
18 PARTITION P3 VALUES IN (302,317,458,509,610) DATA DIRECTORY = '/data3/data' INDEX DIRECTORY = '/data3/idx'
19 );
上面的例子,使用了列表匹配LIST函数对员工岗位编号进行分区,共分为4个分区,编号为46,77,89的对应在分区P0中,106,125,177类别在分区P1中,依次类推即可。
不同于RANGE的是,LIST分区的数据必须匹配列表中的岗位编号才能进行分区,所以这种方式只是适合比较区间值确定并少量的情况。
每个分区都有自己独立的数据、索引文件的存放目录,并且这些目录所在的物理磁盘分区可能也都是完全独立的,可以提高磁盘IO吞吐量。
4.4 KEY(键值)
类似于按HASH分区,区别在于KEY分区只支持计算一列或多列,且MySQL 服务器提供其自身的哈希函数。必须有一列或多列包含整数值。 示例如下:
1 /*key*/
2 drop table if EXISTS `t_userinfo`;
3 CREATE TABLE `t_userinfo` (
4 `id` int(10) unsigned NOT NULL,
5 `personcode` varchar(20) DEFAULT NULL,
6 `personname` varchar(100) DEFAULT NULL,
7 `depcode` varchar(100) DEFAULT NULL,
8 `depname` varchar(500) DEFAULT NULL,
9 `gwcode` int(11) DEFAULT NULL,
10 `gwname` varchar(200) DEFAULT NULL,
11 `gravalue` varchar(20) DEFAULT NULL,
12 `createtime` DateTime NOT NULL
13 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
14 PARTITION BY KEY(gwcode)
15 PARTITIONS 4(
16 PARTITION P0 DATA DIRECTORY = '/data0/data' INDEX DIRECTORY = '/data0/idx',
17 PARTITION P1 DATA DIRECTORY = '/data1/data' INDEX DIRECTORY = '/data1/idx',
18 PARTITION P2 DATA DIRECTORY = '/data2/data' INDEX DIRECTORY = '/data2/idx',
19 PARTITION P3 DATA DIRECTORY = '/data3/data' INDEX DIRECTORY = '/data3/idx'
20 );
注意:此种分区算法目前使用的比较少,使用服务器提供的哈希函数有不确定性,对于后期数据统计、整理存在会更复杂,所以我们更倾向于使用由我们定义表达式的Hash,大家知道其存在和怎么使用即可。
4.5 嵌套分区(子分区)
嵌套分区(子分区)是针对 RANGE/LIST 类型的分区表中每个分区的再次分割。再次分割可以是 HASH/KEY 等类型。
1 drop table if EXISTS `t_userinfo`;
2 CREATE TABLE `t_userinfo` (
3 `id` int(10) unsigned NOT NULL,
4 `personcode` varchar(20) DEFAULT NULL,
5 `personname` varchar(100) DEFAULT NULL,
6 `depcode` varchar(100) DEFAULT NULL,
7 `depname` varchar(500) DEFAULT NULL,
8 `gwcode` int(11) DEFAULT NULL,
9 `gwname` varchar(200) DEFAULT NULL,
10 `gravalue` varchar(20) DEFAULT NULL,
11 `createtime` DateTime NOT NULL
12 ) ENGINE=InnoDB DEFAULT CHARSET=utf8
13 PARTITION BY RANGE (id) SUBPARTITION BY HASH (id% 4) SUBPARTITIONS 2(
14 PARTITION p0 VALUES LESS THAN (5000000) DATA DIRECTORY = '/data0/data' INDEX DIRECTORY = '/data0/idx',
15 PARTITION p1 VALUES LESS THAN MAXVALUE DATA DIRECTORY = '/data1/data' INDEX DIRECTORY = '/data1/idx'
16
17 );
如上,对RANGE 分区再次进行子分区划分,子分区采用 HASH 类型。
5 分区管理
5.1 删除分区
1 /*删除分区 P1*/
2 ALERT TABLE users_part DROP PARTITION P1;
5.2 重建分区
5.2.1 RANGE 分区重建
1 /*这边将原来的 P0,P1 分区合并起来,放到新的 P0 分区中,并重新设定条件为少于5000000。*/
2 ALTER TABLE users_part REORGANIZE PARTITION P0,P1 INTO (PARTITION P0 VALUES LESS THAN (5000000));
用于因空间过于浪费而产生的合并情况。
5.2.2 LIST 分区重建
/*将原来的 P0,P1 分区合并起来,放到新的 P0 分区中,跟上一个的意思有点像。*/
ALTER TABLE users_part REORGANIZE PARTITION p0,p1 INTO (PARTITION p0 VALUES IN(1,4,5,8,9,12,13,101,555));
5.2.3 HASH/KEY 分区重建
/*用 REORGANIZE 方式重建分区的数量变成2,在这里数量只能减少不能增加。想要增加可以用 ADD PARTITION 方法。*/
ALTER TABLE users_part REORGANIZE PARTITION COALESCE PARTITION 2;
5.3 新增分区
5.3.1 新增 RANGE 分区
1 /*新增一个RANGE分区*/
2 ALTER TABLE category ADD PARTITION (PARTITION p4 VALUES IN (16,17,18,19)
3 DATA DIRECTORY = '/data8/data'
4 INDEX DIRECTORY = '/data8/idx');
5.3.2 新增 HASH/KEY 分区
/* 将分区总数扩展到n个。n请用数值代替 */
ALTER TABLE users_part ADD PARTITION PARTITIONS n;
5.3.3 给已有的表加上分区
1 alter tableuser_part partition by RANGE (month(birth))
2 (
3 PARTITION p0 VALUES LESS THAN (1),
4 PARTITION p1 VALUES LESS THAN (2) ,
5 PARTITION p2 VALUES LESS THAN (3) ,
6 PARTITION p3 VALUES LESS THAN (4) ,
7 PARTITION p4 VALUES LESS THAN (5) ,
8 PARTITION p5 VALUES LESS THAN (6) ,
9 PARTITION p6 VALUES LESS THAN (7) ,
10 PARTITION p7 VALUES LESS THAN (8) ,
11 PARTITION p8 VALUES LESS THAN (9) ,
12 PARTITION p9 VALUES LESS THAN (10) ,
13 PARTITION p10 VALUES LESS THAN (11),
14 PARTITION p11 VALUES LESS THAN (12),
15 PARTITION P12 VALUES LESS THAN (13)
16 );
6 去除分区主键限制
默认分区限制分区字段必须是主键(PRIMARY KEY)的一部分,需要去除此限制。
如果表中设立主键,会报出如下提示:A PRIMARY KEY must include all columns in the table's partitioning function (prefixed columns are not considered).
一种解决方式就是使用主键来做为分区条件:
ALTER TABLE users_part PARTITION BY HASH(id) PARTITIONS 4;
另外一种方式就是把分区条件字段加入主键中,变成联合主键。如下,id和gwcode 组成了联合主键:
1 alter table users_part drop PRIMARY KEY;
2 alter table users_part add PRIMARY KEY(id, gwcode);
MySQL全面瓦解29:使用Partition功能实现水平分区的更多相关文章
- MySQL全面瓦解13:系统函数相关
概述 提到MySQL的系统函数,我们前面有使用过聚合函数,其实只是其中一小部分.MySQL提供很多功能强大.方便易用的函数,使用这些函数,可以极大地提高用户对于数据库的管理效率,并更加灵活地满足不同用 ...
- MySQL全面瓦解25:构建高性能索引(案例分析篇)
回顾一下上面几篇索引相关的文章: MySQL全面瓦解22:索引的介绍和原理分析 MySQL全面瓦解23:MySQL索引实现和使用 MySQL全面瓦解24:构建高性能索引(策略篇) 索引的十大原则 1. ...
- MySQL 8.0有什么新功能
https://mysqlserverteam.com/whats-new-in-mysql-8-0-generally-available/ 我们自豪地宣布MySQL 8.0的一般可用性. 现在下载 ...
- MySQL 5.7.29主从安装配置
一.环境准备(关闭防火墙) 1.清除已安装数据库 [root@mysql01 ~]# rpm -qa | grep mariadb mariadb-libs-5.5.35-3.el7.x86_64 [ ...
- MySQL全面瓦解23:MySQL索引实现和使用
MySQL索引实现 上一篇我们详细了解了B+树的实现原理(传送门).我们知道,MySQL内部索引是由不同的引擎实现的,主要包含InnoDB和MyISAM这两种,并且这两种引擎中的索引都是使用b+树的结 ...
- MySQL全面瓦解24:构建高性能索引(策略篇)
学习如果构建高性能的索引之前,我们先来了解下之前的知识,以下两篇是基础原理,了解之后,对面后续索引构建的原则和优化方法会有更清晰的理解: MySQL全面瓦解22:索引的介绍和原理分析 MySQL全面瓦 ...
- MySQL全面瓦解27:主从复制(原理 + 实践)
概念 主从复制,是指建立一个和主数据库完全一样的数据库环境(称为从数据库),并将主库的操作行为进行复制的过程:将主数据库的DDL和DML的操作日志同步到从数据库上, 然后在从数据库上对这些日志进行重新 ...
- 利用MYSQL的函数实现用户登录功能,进出都是JSON(第二版)
利用MYSQL的函数实现用户登录功能,进出都是JSON(第二版) CREATE DEFINER=`root`@`%` FUNCTION `uc_session_login`( `reqjson` JS ...
- Java Spring+Mysql+Mybatis 实现用户登录注册功能
前言: 最近在学习Java的编程,前辈让我写一个包含数据库和前端的用户登录功能,通过看博客等我先是写了一个最基础的servlet+jsp,再到后来开始用maven进行编程,最终的完成版是一个 Spri ...
随机推荐
- PriorityQueue(优先队列)
PriorityQueue 翻译过来就是优先队列,本质是一个堆, 默认情况下堆顶每次都保留最小值,每插入一个元素,仍动态维护堆顶为最小值. PriorityQueue 一个基于优先级的无界优先级队列. ...
- 算法:N-gram语法
一.N-gram介绍 n元语法(英语:N-gram)指文本中连续出现的n个语词.n元语法模型是基于(n - 1)阶马尔可夫链的一种概率语言模型,通过n个语词出现的概率来推断语句的结构.这一模型被广泛应 ...
- buff/cache 占用过高解决方法
cache 读磁盘时,数据从磁盘读出后,暂留在缓冲区(cache),为后续程序的使用做准备 buffer 写磁盘时,先保存到磁盘缓冲区(buffer),然后再写入到磁盘 三条命令: #echo 1 & ...
- Spring Cloud Gateway实战之一:初探
欢迎访问我的GitHub 这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos 关于<Spring Cloud Gateway实 ...
- Java实体映射工具MapStruct使用详解
1.序 通常在后端开发中经常不直接返回实体Entity类,经过处理转换返回前端,前端提交过来的对象也需要经过转换Entity实体才做存储:通常使用的BeanUtils.copyProperties方法 ...
- es添加index template
在kibana页面选择最下方的management--elasticsearch--Index Management--Index Management 选择create a template添加in ...
- redis批量操作
由于redis没有批量删除命令,所以借助xargs redis-cli -h 127.0.0.1 keys testdata_2018* |xargs redis-cli -h 127.0.0.1 d ...
- 大一C语言学习笔记(5)---函数篇-定义函数需要了解注意的地方;定义函数的易错点;详细说明函数的每个组合部分的功能及注意事项
博主学习C语言是通过B站上的<郝斌C语言自学教程>,对于C语言初学者来说,我认为郝斌真的是在全网C语言学习课程中讲的最全面,到位的一个,这个不是真不是博主我吹他哈,大家可以去B站去看看,C ...
- Swift学习笔记(一)
1.Constants and Variables(常量和变量) let定义常量,var定义变量. [Note] If a stored value in your code won't change ...
- Python--基本数据类型(可变/不可变类型)
目录 Python--基本数据类型 1.整型 int 2.浮点型 float 3.字符串 str 字符串格式 字符串嵌套 4.列表 list 列表元素的下标位置 索引和切片:字符串,列表常用 5.字典 ...