http://toplchx.iteye.com/blog/2091860
使用EXPLAIN
PostgreSQL为每个收到的查询设计一个查询规划。选择正确的匹配查询结构和数据属性的规划对执行效率是至关重要要的,所以系统包含一个复杂的规划器来试图选择好的规划。你可以使用EXPLAIN命令查看查询规划器创建的任何查询。阅读查询规划是一门艺术,需要掌握一定的经验,本节试图涵盖一些基础知识。
以下的例子来自PostgreSQL 9.3开发版。
EXPLAIN基础
查询规划是以规划为节点的树形结构。树的最底节点是扫描节点:他返回表中的原数据行。
不同的表有不同的扫描节点类型:顺序扫描,索引扫描和位图索引扫描。
也有非表列源,如VALUES子句并设置FROM返回,他们有自己的扫描类型。
如果查询需要关联,聚合,排序或其他操作,会在扫描节点之上增加节点执行这些操作。通常有不只一种可能的方式做这些操作,所以可能出现不同的节点类型。
EXPLAIN的输出是每个树节点显示一行,内容是基本节点类型和执行节点的消耗评估。可能会楚翔其他行,从汇总行节点缩进显示节点的其他属性。第一行(最上节点的汇总行)是评估执行计划的总消耗,这个值越小越好。
下面是一个简单的例子:
  1. EXPLAIN SELECT * FROM tenk1;
  2. QUERY PLAN
  3. -------------------------------------------------------------
  4. Seq Scan on tenk1  (cost=0.00..458.00 rows=10000 width=244)

因为这个查询没有WHERE子句,所以必须扫描表中的所有行,所以规划器选择使用简单的顺序扫描规划。括号中的数字从左到右依次是:

  • 评估开始消耗。这是可以开始输出前的时间,比如排序节点的排序的时间。
  • 评估总消耗。假设查询从执行到结束的时间。有时父节点可能停止这个过程,比如LIMIT子句。
  • 评估查询节点的输出行数,假设该节点执行结束。
  • 评估查询节点的输出行的平均字节数。
这个消耗的计算依赖于规划器的设置参数,这里的例子都是在默认参数下运行。
需要知道的是:上级节点的消耗包括其子节点的消耗。这个消耗值只反映规划器关心的内容,一般这个消耗不包括将数据传输到客户端的时间。
评估的行数不是执行和扫描查询节点的数量,而是节点返回的数量。它通常会少于扫描数量,因为有WHERE条件会过滤掉一些数据。理想情况顶级行数评估近似于实际返回的数量
回到刚才的例子,表tenk1有10000条数据分布在358个磁盘页,评估时间是(磁盘页*seq_page_cost)+(扫描行*cpu_tuple_cost)。默认seq_page_cost是1.0,cpu_tuple_cost是0.01,所以评估值是(358 * 1.0) + (10000 * 0.01) = 458
 
现在我们将查询加上WHERE子句:
  1. EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 7000;
  2. QUERY PLAN
  3. ------------------------------------------------------------
  4. Seq Scan on tenk1  (cost=0.00..483.00 rows=7001 width=244)
  5. Filter: (unique1 < 7000)
查询节点增加了“filter”条件。这意味着查询节点为扫描的每一行数据增加条件检查,只输入符合条件数据。评估的输出记录数因为where子句变少了,但是扫描的数据还是10000条,所以消耗没有减少,反而增加了一点cup的计算时间。
这个查询实际输出的记录数是7000,但是评估是个近似值,多次运行可能略有差别,这中情况可以通过ANALYZE命令改善。
 
现在再修改一下条件
  1. EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 100;
  2. QUERY PLAN
  3. ------------------------------------------------------------------------------
  4. Bitmap Heap Scan on tenk1  (cost=5.07..229.20 rows=101 width=244)
  5. Recheck Cond: (unique1 < 100)
  6. ->  Bitmap Index Scan on tenk1_unique1  (cost=0.00..5.04 rows=101 width=0)
  7. Index Cond: (unique1 < 100)

查询规划器决定使用两步规划:首先子查询节点查看索引找到符合条件的记录索引,然后外层查询节点将这些记录从表中提取出来。分别提取数据的成本要高于顺序读取,但因为不需要读取所有磁盘页,所以总消耗比较小。(其中Bitmap是系统排序的一种机制)

 
现在,增加另一个查询条件:
  1. EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 100 AND stringu1 = 'xxx';
  2. QUERY PLAN
  3. ------------------------------------------------------------------------------
  4. Bitmap Heap Scan on tenk1  (cost=5.04..229.43 rows=1 width=244)
  5. Recheck Cond: (unique1 < 100)
  6. Filter: (stringu1 = 'xxx'::name)
  7. ->  Bitmap Index Scan on tenk1_unique1  (cost=0.00..5.04 rows=101 width=0)
  8. Index Cond: (unique1 < 100)

增加的条件stringu1='xxx'减少了输出记录数的评估,但没有减少时间消耗,应为系统还是要查询相同数量的记录。请注意stringu1不是索引条件。

 如果在不同的字段上有独立的索引,规划器可能选择使用AND或者OR组合索引:
  1. EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 100 AND unique2 > 9000;
  2. QUERY PLAN
  3. -------------------------------------------------------------------------------------
  4. Bitmap Heap Scan on tenk1  (cost=25.08..60.21 rows=10 width=244)
  5. Recheck Cond: ((unique1 < 100) AND (unique2 > 9000))
  6. ->  BitmapAnd  (cost=25.08..25.08 rows=10 width=0)
  7. ->  Bitmap Index Scan on tenk1_unique1  (cost=0.00..5.04 rows=101 width=0)
  8. Index Cond: (unique1 < 100)
  9. ->  Bitmap Index Scan on tenk1_unique2  (cost=0.00..19.78 rows=999 width=0)
  10. Index Cond: (unique2 > 9000)

这个查询条件的两个字段都有索引,索引不需要filre。

 
下面我们来看看LIMIT的影响:
  1. EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 100 AND unique2 > 9000 LIMIT 2;
  2. QUERY PLAN
  3. -------------------------------------------------------------------------------------
  4. Limit  (cost=0.29..14.48 rows=2 width=244)
  5. ->  Index Scan using tenk1_unique2 on tenk1  (cost=0.29..71.27 rows=10 width=244)
  6. Index Cond: (unique2 > 9000)
  7. Filter: (unique1 < 100)

这条查询的where条件和上面的一样,只是增加了LIMIT,所以不是所有数据都需要返回,规划器改变了规划。在索引扫描节点总消耗和返回记录数是运行玩查询之后的数值,但Limit节点预期时间消耗是15,所以总时间消耗是15.增加LIMIT会使启动时间小幅增加(0.25->0.29)。

 
来看一下通过索引字段的表连接:
  1. EXPLAIN SELECT *
  2. FROM tenk1 t1, tenk2 t2
  3. WHERE t1.unique1 < 10 AND t1.unique2 = t2.unique2;
  4. QUERY PLAN
  5. --------------------------------------------------------------------------------------
  6. Nested Loop  (cost=4.65..118.62 rows=10 width=488)
  7. ->  Bitmap Heap Scan on tenk1 t1  (cost=4.36..39.47 rows=10 width=244)
  8. Recheck Cond: (unique1 < 10)
  9. ->  Bitmap Index Scan on tenk1_unique1  (cost=0.00..4.36 rows=10 width=0)
  10. Index Cond: (unique1 < 10)
  11. ->  Index Scan using tenk2_unique2 on tenk2 t2  (cost=0.29..7.91 rows=1 width=244)
  12. Index Cond: (unique2 = t1.unique2)

这个规划中有一个内连接的节点,它有两个子节点。节点摘要行的缩进反映了规划树的结构。最外层是一个连接节点,子节点是一个Bitmap扫描。外部节点位图扫描的消耗和记录数如同我们使用SELECT...WHERE unique1 < 10,因为这时t1.unique2 = t2.unique2还不相关。接下来为每一个从外部节点得到的记录运行内部查询节点。这里外部节点得到的数据的t1.unique2值是可用的,所以我们得到的计划和SELECT...WHEREt2.unique2=constant的情况类似。(考虑到缓存的因素评估的消耗可能要小一些)

外部节点的消耗加上循环内部节点的消耗(39.47+10*7.91)再加一点CPU时间就得到规划的总消耗。
 
再看一个例子:
  1. EXPLAIN SELECT *
  2. FROM tenk1 t1, tenk2 t2
  3. WHERE t1.unique1 < 10 AND t2.unique2 < 10 AND t1.hundred < t2.hundred;
  4. QUERY PLAN
  5. ---------------------------------------------------------------------------------------------
  6. Nested Loop  (cost=4.65..49.46 rows=33 width=488)
  7. Join Filter: (t1.hundred < t2.hundred)
  8. ->  Bitmap Heap Scan on tenk1 t1  (cost=4.36..39.47 rows=10 width=244)
  9. Recheck Cond: (unique1 < 10)
  10. ->  Bitmap Index Scan on tenk1_unique1  (cost=0.00..4.36 rows=10 width=0)
  11. Index Cond: (unique1 < 10)
  12. ->  Materialize  (cost=0.29..8.51 rows=10 width=244)
  13. ->  Index Scan using tenk2_unique2 on tenk2 t2  (cost=0.29..8.46 rows=10 width=244)
  14. Index Cond: (unique2 < 10)

条件t1.hundred<t2.hundred不在tenk2_unique2索引中,所以这个条件出现在连接节点中。这将减少连接节点的评估输出记录数,但不会改变子节点的扫描数。

注意这次规划器选择使用Meaterialize节点,将条件加入内部节点,这以为着内部节点的索引扫描只做一次,即使嵌套循环需要读取这些数据10次,Meterialize节点将数据保存在内存中,每次循环都从内存中读取数据。
 
如果我们稍微改变一下查询,会看到完全不同的规划:
  1. EXPLAIN SELECT *
  2. FROM tenk1 t1, tenk2 t2
  3. WHERE t1.unique1 < 100 AND t1.unique2 = t2.unique2;
  4. QUERY PLAN
  5. ------------------------------------------------------------------------------------------
  6. Hash Join  (cost=230.47..713.98 rows=101 width=488)
  7. Hash Cond: (t2.unique2 = t1.unique2)
  8. ->  Seq Scan on tenk2 t2  (cost=0.00..445.00 rows=10000 width=244)
  9. ->  Hash  (cost=229.20..229.20 rows=101 width=244)
  10. ->  Bitmap Heap Scan on tenk1 t1  (cost=5.07..229.20 rows=101 width=244)
  11. Recheck Cond: (unique1 < 100)
  12. ->  Bitmap Index Scan on tenk1_unique1  (cost=0.00..5.04 rows=101 width=0)
  13. Index Cond: (unique1 < 100)

这里规划器选择使用hash join,将一个表的数据存入内存中的哈希表,然后扫描另一个表并和哈希表中的每一条数据进行匹配。

注意缩进反应的规划结构。在tenk1表上的bitmap扫描结果作为Hash节点的输入建立哈希表。然后Hash Join节点读取外层子节点的数据,再循环检索哈希表的数据。
 
另一个可能的连接类型是merge join:

  1. EXPLAIN SELECT *
  2. FROM tenk1 t1, onek t2
  3. WHERE t1.unique1 < 100 AND t1.unique2 = t2.unique2;
  4. QUERY PLAN
  5. ------------------------------------------------------------------------------------------
  6. Merge Join  (cost=198.11..268.19 rows=10 width=488)
  7. Merge Cond: (t1.unique2 = t2.unique2)
  8. ->  Index Scan using tenk1_unique2 on tenk1 t1  (cost=0.29..656.28 rows=101 width=244)
  9. Filter: (unique1 < 100)
  10. ->  Sort  (cost=197.83..200.33 rows=1000 width=244)
  11. Sort Key: t2.unique2
  12. ->  Seq Scan on onek t2  (cost=0.00..148.00 rows=1000 width=244)

Merge Join需要已经排序的输入数据。在这个规划中按正确顺序索引扫描tenk1的数据,但是对onek表执行排序和顺序扫描,因为需要在这个表中查询多条数据。因为索引扫描需要访问不连续的磁盘,所以索引扫描多条数据时会频繁使用排序顺序扫描(Sequential-scan-and-sort)。

有一种方法可以看到不同的规划,就是强制规划器忽略任何策略。例如,如果我们不相信排序顺序扫描(sequential-scan-and-sort)是最好的办法,我们可以尝试这样的做法:
  1. SET enable_sort = off;
  2. EXPLAIN SELECT *
  3. FROM tenk1 t1, onek t2
  4. WHERE t1.unique1 < 100 AND t1.unique2 = t2.unique2;
  5. QUERY PLAN
  6. ------------------------------------------------------------------------------------------
  7. Merge Join  (cost=0.56..292.65 rows=10 width=488)
  8. Merge Cond: (t1.unique2 = t2.unique2)
  9. ->  Index Scan using tenk1_unique2 on tenk1 t1  (cost=0.29..656.28 rows=101 width=244)
  10. Filter: (unique1 < 100)
  11. ->  Index Scan using onek_unique2 on onek t2  (cost=0.28..224.79 rows=1000 width=244)

显示测结果表明,规划器认为索引扫描比排序顺序扫描消耗高12%。当然下一个问题就是规划器的评估为什么是正确的。我们可以通过EXPLAIN ANALYZE进行考察。

 
EXPLAIN ANALYZE
通过EXPLAIN ANALYZE可以检查规划器评估的准确性。使用ANALYZE选项,EXPLAIN实际运行查询,显示真实的返回记录数和运行每个规划节点的时间,例如我们可以得到下面的结果:
  1. EXPLAIN ANALYZE SELECT *
  2. FROM tenk1 t1, tenk2 t2
  3. WHERE t1.unique1 < 10 AND t1.unique2 = t2.unique2;
  4. QUERY PLAN
  5. ---------------------------------------------------------------------------------------------------------------------------------
  6. Nested Loop  (cost=4.65..118.62 rows=10 width=488) (actual time=0.128..0.377 rows=10 loops=1)
  7. ->  Bitmap Heap Scan on tenk1 t1  (cost=4.36..39.47 rows=10 width=244) (actual time=0.057..0.121 rows=10 loops=1)
  8. Recheck Cond: (unique1 < 10)
  9. ->  Bitmap Index Scan on tenk1_unique1  (cost=0.00..4.36 rows=10 width=0) (actual time=0.024..0.024 rows=10 loops=1)
  10. Index Cond: (unique1 < 10)
  11. ->  Index Scan using tenk2_unique2 on tenk2 t2  (cost=0.29..7.91 rows=1 width=244) (actual time=0.021..0.022 rows=1 loops=10)
  12. Index Cond: (unique2 = t1.unique2)
  13. Total runtime: 0.501 ms

注意,实际时间(actual time)的值是已毫秒为单位的实际时间,cost是评估的消耗,是个虚拟单位时间,所以他们看起来不匹配。

通常最重要的是看评估的记录数是否和实际得到的记录数接近。在这个例子里评估数完全和实际一样,但这种情况很少出现。
 
某些查询规划可能执行多次子规划。比如之前提过的内循环规划(nested-loop),内部索引扫描的次数是外部数据的数量。在这种情况下,报告显示循环执行的总次数、平均实际执行时间和数据条数。这样做是为了和评估值表示方式一至。由循环次数和平均值相乘得到总消耗时间。
 
某些情况EXPLAIN ANALYZE会显示额外的信息,比如sort和hash节点的时候:
  1. EXPLAIN ANALYZE SELECT *
  2. FROM tenk1 t1, tenk2 t2
  3. WHERE t1.unique1 < 100 AND t1.unique2 = t2.unique2 ORDER BY t1.fivethous;
  4. QUERY PLAN
  5. --------------------------------------------------------------------------------------------------------------------------------------------
  6. Sort  (cost=717.34..717.59 rows=101 width=488) (actual time=7.761..7.774 rows=100 loops=1)
  7. Sort Key: t1.fivethous
  8. Sort Method: quicksort  Memory: 77kB
  9. ->  Hash Join  (cost=230.47..713.98 rows=101 width=488) (actual time=0.711..7.427 rows=100 loops=1)
  10. Hash Cond: (t2.unique2 = t1.unique2)
  11. ->  Seq Scan on tenk2 t2  (cost=0.00..445.00 rows=10000 width=244) (actual time=0.007..2.583 rows=10000 loops=1)
  12. ->  Hash  (cost=229.20..229.20 rows=101 width=244) (actual time=0.659..0.659 rows=100 loops=1)
  13. Buckets: 1024  Batches: 1  Memory Usage: 28kB
  14. ->  Bitmap Heap Scan on tenk1 t1  (cost=5.07..229.20 rows=101 width=244) (actual time=0.080..0.526 rows=100 loops=1)
  15. Recheck Cond: (unique1 < 100)
  16. ->  Bitmap Index Scan on tenk1_unique1  (cost=0.00..5.04 rows=101 width=0) (actual time=0.049..0.049 rows=100 loops=1)
  17. Index Cond: (unique1 < 100)
  18. Total runtime: 8.008 ms

排序节点(Sort)显示排序类型(一般是在内存还是在磁盘)和使用多少内存。哈希节点(Hash)显示哈希桶和批数以及使用内存的峰值。

 
另一种额外信息是过滤条件过滤掉的记录数:
  1. EXPLAIN ANALYZE SELECT * FROM tenk1 WHERE ten < 7;
  2. QUERY PLAN
  3. ---------------------------------------------------------------------------------------------------------
  4. Seq Scan on tenk1  (cost=0.00..483.00 rows=7000 width=244) (actual time=0.016..5.107 rows=7000 loops=1)
  5. Filter: (ten < 7)
  6. Rows Removed by Filter: 3000
  7. Total runtime: 5.905 ms

这个值在join节点上尤其有价值。"Rows Removed"只有在过滤条件过滤掉数据时才显示。

 
类似条件过滤的情况也会在"lossy"索引扫描时发生,比如这样一个查询,一个多边形含有的特定的点:
  1. EXPLAIN ANALYZE SELECT * FROM polygon_tbl WHERE f1 @> polygon '(0.5,2.0)';
  2. QUERY PLAN
  3. ------------------------------------------------------------------------------------------------------
  4. Seq Scan on polygon_tbl  (cost=0.00..1.05 rows=1 width=32) (actual time=0.044..0.044 rows=0 loops=1)
  5. Filter: (f1 @> '((0.5,2))'::polygon)
  6. Rows Removed by Filter: 4
  7. Total runtime: 0.083 ms

规划器认为(正确的)这样的表太小以至于不需要索引扫描,所以采用顺序扫描所有行经行条件检查。

但是,如果我们强制使用索引扫描,将会看到:
  1. SET enable_seqscan TO off;
  2. EXPLAIN ANALYZE SELECT * FROM polygon_tbl WHERE f1 @> polygon '(0.5,2.0)';
  3. QUERY PLAN
  4. --------------------------------------------------------------------------------------------------------------------------
  5. Index Scan using gpolygonind on polygon_tbl  (cost=0.13..8.15 rows=1 width=32) (actual time=0.062..0.062 rows=0 loops=1)
  6. Index Cond: (f1 @> '((0.5,2))'::polygon)
  7. Rows Removed by Index Recheck: 1
  8. Total runtime: 0.144 ms

这里我们可以看到索引返回一条候选数据,但被过滤条件拒绝。这是因为GiST索引在多边形包含检测上是松散的"lossy":它实际返回哪些和多边形交叠的数据,然后我们还需要针对这些数据做包含检测。

 
EXPLAIN还有BUFFERS选项可以和ANALYZE一起使用,来得到更多的运行时间分析:
  1. EXPLAIN (ANALYZE, BUFFERS) SELECT * FROM tenk1 WHERE unique1 < 100 AND unique2 > 9000;
  2. QUERY PLAN
  3. ---------------------------------------------------------------------------------------------------------------------------------
  4. Bitmap Heap Scan on tenk1  (cost=25.08..60.21 rows=10 width=244) (actual time=0.323..0.342 rows=10 loops=1)
  5. Recheck Cond: ((unique1 < 100) AND (unique2 > 9000))
  6. Buffers: shared hit=15
  7. ->  BitmapAnd  (cost=25.08..25.08 rows=10 width=0) (actual time=0.309..0.309 rows=0 loops=1)
  8. Buffers: shared hit=7
  9. ->  Bitmap Index Scan on tenk1_unique1  (cost=0.00..5.04 rows=101 width=0) (actual time=0.043..0.043 rows=100 loops=1)
  10. Index Cond: (unique1 < 100)
  11. Buffers: shared hit=2
  12. ->  Bitmap Index Scan on tenk1_unique2  (cost=0.00..19.78 rows=999 width=0) (actual time=0.227..0.227 rows=999 loops=1)
  13. Index Cond: (unique2 > 9000)
  14. Buffers: shared hit=5
  15. Total runtime: 0.423 ms
Buffers提供的数据可以帮助确定哪些查询是I/O密集型的。
 
请注意EXPLAIN ANALYZE实际运行查询,任何实际影响都会发生。如果要分析一个修改数据的查询又不想改变你的表,你可以使用roll back命令进行回滚,比如:
  1. BEGIN;
  2. EXPLAIN ANALYZE UPDATE tenk1 SET hundred = hundred + 1 WHERE unique1 < 100;
  3. QUERY PLAN
  4. --------------------------------------------------------------------------------------------------------------------------------
  5. Update on tenk1  (cost=5.07..229.46 rows=101 width=250) (actual time=14.628..14.628 rows=0 loops=1)
  6. ->  Bitmap Heap Scan on tenk1  (cost=5.07..229.46 rows=101 width=250) (actual time=0.101..0.439 rows=100 loops=1)
  7. Recheck Cond: (unique1 < 100)
  8. ->  Bitmap Index Scan on tenk1_unique1  (cost=0.00..5.04 rows=101 width=0) (actual time=0.043..0.043 rows=100 loops=1)
  9. Index Cond: (unique1 < 100)
  10. Total runtime: 14.727 ms
  11. ROLLBACK;

当查询是INSERT,UPDATE或DELETE命令时,在顶级节点是实施对表的变更。在这下面的节点实行定位旧数据计算新数据的工作。所以我们看到一样的bitmap索引扫描,并返回给Update节点。值得注意的是虽然修改数据的节点可能需要相当长的运行时间(在这里它消耗了大部分的时间),规划器却没有再评估时间中添加任何消耗,这是因为更新工作对于任何查询规划都是一样的,所以并不影响规划器的决策。

 
EXPLAIN ANALYZE的"Total runtime"包括执行启动和关闭时间,以及运行被激发的任何处触发器的时间,但不包括分析、重写或规划时间。执行时间包括BEFORE触发器,但不包括AFTER触发器,因为AFTER是在查询运行结束之后才触发的。每个触发器(无论BEFORE还是AFTER)的时间也会单独显示出来。注意,延迟的触发器在事务结束前都不会被执行,所以EXPLAIN ANALYZE不会显示。

PostgreSql的Explain命令详解的更多相关文章

  1. 转载:MySQL EXPLAIN 命令详解学习

    转载自:https://blog.csdn.net/mchdba/article/details/9190771 MySQL EXPLAIN 命令详解 MySQL的EXPLAIN命令用于SQL语句的查 ...

  2. MySQL EXPLAIN 命令详解

    MySQL EXPLAIN 命令详解 MySQL的EXPLAIN命令用于SQL语句的查询执行计划(QEP).这条命令的输出结果能够让我们了解MySQL 优化器是如何执行SQL 语句的.这条命令并没有提 ...

  3. 一次浴火重生的MySQL优化(EXPLAIN命令详解)

    一直对SQL优化的技能心存无限的向往,之前面试的时候有很多面试官都会来一句,你会优化吗?我说我不太会,这时可能很多人就会有点儿说法了,比如会说不要使用通配符*去检索表.给常常使用的列建立索引.还有创建 ...

  4. SQL中EXPLAIN命令详解---(转)

    MySQL Explain详解   在日常工作中,我们会有时会开慢查询去记录一些执行时间比较久的SQL语句,找出这些SQL语句并不意味着完事了,些时我们常常用到explain这个命令来查看一个这些SQ ...

  5. 2.mysql explain命令详解

    EXPLAIN详解 SQL编写和解析 编写过程 select-distinct-from-join-on-where-group by-having-order by-limit- 解析过程 from ...

  6. EXPLAIN 命令详解

    在工作中,我们用于捕捉性能问题最常用的就是打开慢查询,定位执行效率差的SQL,那么当我们定位到一个SQL以后还不算完事,我们还需要知道该SQL的执行计划,比如是全表扫描,还是索引扫描,这些都需要通过E ...

  7. 【MySQL】EXPLAIN命令详解

    具体参考: https://www.cnblogs.com/gomysql/p/3720123.html 原文如下: 在工作中,我们用于捕捉性能问题最常用的就是打开慢查询,定位执行效率差的SQL,那么 ...

  8. MySQL中EXPLAIN命令详解

    explain显示了mysql如何使用索引来处理select语句以及连接表.可以帮助选择更好的索引和写出更优化的查询语句. 使用方法,在select语句前加上explain就可以了: 如: expla ...

  9. MySQL的EXPLAIN命令详解(转)

    explain显示了mysql如何使用索引来处理select语句以及连接表.可以帮助选择更好的索引和写出更优化的查询语句. 使用方法,在select语句前加上explain就可以了: 如: expla ...

随机推荐

  1. Netty源码—三、select

    NioEventLoop功能 前面channel已经准备好了,可以接收来自客户端的请求了,NioEventLoop作为一个线程池,只有一个线程,但是有一个queue存储了待执行的task,由于只有一个 ...

  2. 程序员如何让自己 Be Cloud Native - 配置篇

    前言 这是<程序员如何让自己 Be Cloud Native>系列文章的第二篇,从第一篇的反馈来看,有些同学反馈十二要素太形式主义,不建议盲目跟从.作者认为任何理论和技术都需要有自己的观点 ...

  3. Android版数据结构与算法(八):二叉排序树

    本文目录 前两篇文章我们学习了一些树的基本概念以及常用操作,本篇我们了解一下二叉树的一种特殊形式:二叉排序树(Binary Sort Tree),又称二叉查找树(Binary Search Tree) ...

  4. 深度学习之Numpy整理

    一.Numpy介绍.为什么要用Numpy 1.Numpy介绍 Numpy是Python的一个扩展包,语法和Matlab有很多相似之处.它支持高维数组和矩阵运算,也提供了许多数组和矩阵运算的函数.另外, ...

  5. python3的变量作用域规则和nonlocal关键字

    也许你已经觉得自己可以熟练使用python并能胜任许多开发任务,所以这篇文章是在浪费你的时间.不过别着急,我们先从一个例子开始: i = 0 def f(): print(i) i += 1 prin ...

  6. Docker入门(三)使用Docker Compose

    Compose介绍   Compose 项目是 Docker 官方的开源项目,负责实现对 Docker 容器集群的快速编排.Compose 是一个用户定义和运行多个容器的 Docker 应用程序.在 ...

  7. VS2017中使用组合项目_windows服务+winform管理_项目发布_测试服务器部署

    前言:作为一名C#开发人员,避免不了常和windows服务以及winform项目打交道,本人公司对服务的管理也是用到了这2个项目的组合方式进行:因为服务项目是无法直接安装到计算器中,需要使用命令借助微 ...

  8. SpringBoot整合SpringCloud搭建分布式应用

    什么是SpringCloud? SpringCloud是一个分布式的整体解决方案.SpringCloud为开发者提供了在分布式系统中快速构建的工具,使用SpringCloud可以快速的启动服务或构建应 ...

  9. Python函数的定义、参数传入与函数的调用

    作为计算机代码的一种抽象方式,函数在Python中扮演了极为重要的角色.今天给大家介绍Python函数的定义.参数的传入以及调用方式.其中函数参数的传入方式为本节重点内容.Python函数的参数形式包 ...

  10. psql 关于主键自增的问题

    在psql中往往我们需要设置一个自增的主键id字段,psql中不像SQL Server那样点选 打钩傻瓜式就能设置好的,是需要创建序列的:CREATE SEQUENCE,关键字SEQUENCE. 我们 ...