RAID软件磁盘阵列


  RAID 即廉价磁盘冗余阵列,其高可用性和可靠性适用于大规模环境中,相比正常使用,数据更需要被保护。RAID 是将多个磁盘整合的大磁盘,不仅具有存储功能,同时还有数据保护功能.

  软件磁盘整列通过mdadm命令创建.

RAID等级


  • RAID-0: 等量模式,stripe,性能较佳,磁盘利用率100%
  • RAID-1: 镜像模式,mirror,安全性较佳,磁盘利用率50%
  • RAID-0+1: 先组成RAID-0,再有RAID-0组成RAID-1 性能安全兼顾,磁盘利用率50%
  • RAID-1+0:先组成RAID-1,再有RAID-1组成RAID-0  性能安全兼顾,磁盘利用率50%
  • RAID-5: 等量模式与分布式奇偶校验,性能与安全份均衡,磁盘可用量等于n-1
  • RAID-6: 等量模式与双分布式奇偶校验,性能与安全均衡,磁盘可用量等于n-2

RAID-0测试


  RAID-0是等量模式,最好由两块相同型号,相同容量的磁盘来组成.这种模式的RAID会将磁盘想切除等量的区块(chunk),当有存储文件需求时,就会先把文件切割成一定数目的区块,然后依次存入各个磁盘上.如图示

下面是使用mdadm工具创建RAID-0过程

  • 创建两个1G的分区/dev/vdb10,/dev/vdb11
  • 使用mdadm工具创建raid0磁盘阵列,命名为/dev/md0
  1. ###新建分区/dev/vdb10,/dev/vdb11略过
  2.  
  3. [root@zwj ~]# mdadm --create /dev/md0 --level= --raid-devices= /dev/vdb10 /dev/vdb11  #同mdadm -C /dev/md0 -l raid0 -n 2 /dev/vdb10 /dev/vdb11 ,-C 接阵列名,-l接等级,-n 接使用磁盘数
  4. mdadm: Defaulting to version 1.2 metadata
  5. mdadm: array /dev/md0 started.
  6.  
  7. [root@zwj ~]# mdadm -E /dev/vdb10 /dev/vdb11    #查看阵列中的磁盘信息
  8. /dev/vdb10:
  9. Magic : a92b4efc
  10. Version : 1.2
  11. Feature Map : 0x0
  12. Array UUID : d26ff510:82cc5acf:b823eaae:c98c2e8f
  13. Name : zwj: (local to host zwj)
  14. Creation Time : Sun May ::
  15. Raid Level : raid0  
  16. Raid Devices :
  17.  
  18. Avail Dev Size : (1023.70 MiB 1073.43 MB)
  19. Data Offset : sectors
  20. Super Offset : sectors
  21. Unused Space : before= sectors, after= sectors
  22. State : clean
  23. Device UUID : c645eb97:9dc15ee8:9148e372:0c26b998
  24.  
  25. Update Time : Sun May ::
  26. Bad Block Log : entries available at offset sectors
  27. Checksum : 402c224f - correct
  28. Events :
  29. Chunk Size : 512K
  30.  
  31. Device Role : Active device
  32. Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
  33. /dev/vdb11:
  34. Magic : a92b4efc
  35. Version : 1.2
  36. Feature Map : 0x0
  37. Array UUID : d26ff510:82cc5acf:b823eaae:c98c2e8f
  38. Name : zwj: (local to host zwj)
  39. Creation Time : Sun May ::
  40. Raid Level : raid0
  41. Raid Devices :
  42.  
  43. Avail Dev Size : (1023.70 MiB 1073.43 MB)
  44. Data Offset : sectors
  45. Super Offset : sectors
  46. Unused Space : before= sectors, after= sectors
  47. State : clean
  48. Device UUID : 54fd15e5:8ed74a79:0b1efd81:7995a016
  49.  
  50. Update Time : Sun May ::
  51. Bad Block Log : entries available at offset sectors
  52. Checksum : ab4434b5 - correct
  53. Events :
  54.  
  55. Chunk Size : 512K
  56.  
  57. Device Role : Active device
  58. Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
  59.  
  60. [root@zwj ~]# mdadm --detail /dev/md0
  61. /dev/md0:
  62. Version : 1.2
  63. Creation Time : Sun May ::
  64. Raid Level : raid0
  65. Array Size : (2047.00 MiB 2146.44 MB)
  66. Raid Devices :
  67. Total Devices :
  68. Persistence : Superblock is persistent
  69.  
  70. Update Time : Sun May ::
  71. State : clean
  72. Active Devices :
  73. Working Devices :
  74. Failed Devices :
  75. Spare Devices :
  76.  
  77. Chunk Size : 512K
  78.  
  79. Name : zwj: (local to host zwj)
  80. UUID : d26ff510:82cc5acf:b823eaae:c98c2e8f
  81. Events :
  82.  
  83. Number Major Minor RaidDevice State
  84. active sync /dev/vdb10
  85. active sync /dev/vdb11
  86.  
  87. [root@zwj ~]# cat /proc/mdstat
  88. Personalities : [raid0]
  89. md0 : active raid0 vdb11[1] vdb10[0]
  90. blocks super 1.2 512k chunks
  91.  
  92. unused devices: <none>
  93. [root@zwj ~]# mkdir -p /mnt/raid0    #创建挂着目录
  94. [root@zwj ~]# mkfs.ext3 /dev/md >/dev/null
  95. [root@zwj ~]# mount /dev/md0 /mnt/raid0
  96. [root@zwj ~]# df
    。。。
    /dev/md0        2.0G  236M  1.7G  13% /mnt/raid

RAID-1测试


  RAID-1是镜像模式,最好由两块相同型号,相同容量的磁盘来组成.这种模式的RAID有点主要是数据的备份,但磁盘使用率低.如图示

  1. [root@zwj raid1]# fdisk -l |grep "/dev/vdb1[2-9]"         #新建分区为200M
    /dev/vdb12          56186       56592      205096+  83  Linux
    /dev/vdb13          56593       56999      205096+  83  Linux
  2.  
  3. [root@zwj raid0]# mdadm -C /dev/md1 -l 1 -n 2 /dev/vdb{12,13}
    mdadm: Note: this array has metadata at the start and
        may not be suitable as a boot device.  If you plan to
        store '/boot' on this device please ensure that
        your boot-loader understands md/v1.x metadata, or use
        --metadata=0.90
    Continue creating array? y
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md1 started.
    [root@zwj raid0]# mdadm -E /dev/vdb12 /dev/vdb13
    /dev/vdb12:
              Magic : a92b4efc
            Version : 1.2
        Feature Map : 0x0
         Array UUID : 0855d3d3:502aa3e1:9a09f0e8:abdb1e1a
               Name : zwj:1  (local to host zwj)
      Creation Time : Sun May  7 19:49:56 2017
         Raid Level : raid1
       Raid Devices : 2
  4.  
  5.  Avail Dev Size : 409905 (200.15 MiB 209.87 MB)
         Array Size : 204928 (200.13 MiB 209.85 MB)
      Used Dev Size : 409856 (200.13 MiB 209.85 MB)
        Data Offset : 288 sectors
       Super Offset : 8 sectors
       Unused Space : before=200 sectors, after=49 sectors
              State : clean
        Device UUID : e4909dcf:f2fb8812:0c5a70cb:021dd248
  6.  
  7.     Update Time : Sun May  7 19:49:58 2017
      Bad Block Log : 512 entries available at offset 72 sectors
           Checksum : 4478c6ef - correct
             Events : 17
  8.  
  9.    Device Role : Active device 0
       Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
    /dev/vdb13:
              Magic : a92b4efc
            Version : 1.2
        Feature Map : 0x0
         Array UUID : 0855d3d3:502aa3e1:9a09f0e8:abdb1e1a
               Name : zwj:1  (local to host zwj)
      Creation Time : Sun May  7 19:49:56 2017
         Raid Level : raid1
       Raid Devices : 2
  10.  
  11.  Avail Dev Size : 409905 (200.15 MiB 209.87 MB)
         Array Size : 204928 (200.13 MiB 209.85 MB)
      Used Dev Size : 409856 (200.13 MiB 209.85 MB)
        Data Offset : 288 sectors
       Super Offset : 8 sectors
       Unused Space : before=200 sectors, after=49 sectors
              State : clean
        Device UUID : 170d0094:52cdc3d9:993a58b1:b2f3c341
  12.  
  13.     Update Time : Sun May  7 19:49:58 2017
      Bad Block Log : 512 entries available at offset 72 sectors
           Checksum : aeefcbc0 - correct
             Events : 17
  14.  
  15.    Device Role : Active device 1
       Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
    [root@zwj ~]# mdadm --detail /dev/md1
    /dev/md1:
            Version : 1.2
      Creation Time : Sun May  7 19:49:56 2017
         Raid Level : raid1
         Array Size : 204928 (200.13 MiB 209.85 MB)
      Used Dev Size : 204928 (200.13 MiB 209.85 MB)
       Raid Devices : 2
      Total Devices : 2
        Persistence : Superblock is persistent
  16.  
  17.     Update Time : Sun May  7 19:49:58 2017
              State : clean
     Active Devices : 2
    Working Devices : 2
     Failed Devices : 0
      Spare Devices : 0
  18.  
  19.            Name : zwj:1  (local to host zwj)
               UUID : 0855d3d3:502aa3e1:9a09f0e8:abdb1e1a
             Events : 17
  20.  
  21.     Number   Major   Minor   RaidDevice State
           0     252       28        0      active sync   /dev/vdb12
           1     252       29        1      active sync   /dev/vdb13
  22.  
  23. [root@zwj ~]# mkfs.ext3 /dev/md1 >/dev/null
    [root@zwj ~]# mkdir -p /mnt/raid1
    [root@zwj ~]# mount   /dev/md1 /mnt/raid1
    [root@zwj ~]# cd /mnt/raid1/
    [root@zwj raid1]# df -h
    Filesystem      Size  Used Avail Use% Mounted on
    /dev/vda1        20G   13G  5.9G  69% /
    /dev/vdb1        20G  936M   18G   5% /mydata
    /dev/md127      2.0G  236M  1.7G  13% /mnt/raid0
    /dev/md1        194M  5.6M  179M   4% /mnt/raid1        #只有200M
  24. #删除/dev/vdb13
    [root@zwj ~]# mdadm --detail /dev/md126
    /dev/md126:
            Version : 1.2
      Creation Time : Sun May  7 19:49:56 2017
         Raid Level : raid1
         Array Size : 204928 (200.13 MiB 209.85 MB)
      Used Dev Size : 204928 (200.13 MiB 209.85 MB)
       Raid Devices : 2
      Total Devices : 1
        Persistence : Superblock is persistent
  25.  
  26.     Update Time : Sun May  7 20:14:10 2017
              State : clean, degraded
     Active Devices : 1
    Working Devices : 1
     Failed Devices : 0
      Spare Devices : 0
  27.  
  28.            Name : zwj:1  (local to host zwj)
               UUID : 0855d3d3:502aa3e1:9a09f0e8:abdb1e1a
             Events : 23
  29.  
  30.     Number   Major   Minor   RaidDevice State
           0     252       28        0      active sync   /dev/vdb12
           2       0        0        2      removed
  31. [root@zwj ~]# df -h
    Filesystem      Size  Used Avail Use% Mounted on
    /dev/vda1        20G   13G  5.9G  69% /
    /dev/vdb1        20G  936M   18G   5% /mydata
    /dev/md126      194M  5.6M  179M   4% /mnt/raid1

RAID-10测试

  RAID 10 是组合 RAID 1 和 RAID 0 形成的。要设置 RAID 10,我们至少需要4个磁盘,提供更好的性能,在 RAID 10 中我们将失去一半的磁盘容量,读与写的性能都很好,因为它会同时进行写入和读取,它能解决数据库的高 I/O 磁盘写操作,也保证了数据的安全.

我们使用四个分区测试/dev/vdb{12..15} 大小各为200M

  1. [root@zwj ~]# mdadm -C /dev/md10 -l -n /dev/vdb{..}
  2. mdadm: /dev/vdb13 appears to be part of a raid array:
  3. level=raid1 devices= ctime=Sun May ::
  4. Continue creating array? y
  5. mdadm: Defaulting to version 1.2 metadata
  6. mdadm: array /dev/md10 started.
  7. [root@zwj ~]# mdadm -D /dev/md10
  8. /dev/md10:
  9. Version : 1.2
  10. Creation Time : Sun May ::
  11. Raid Level : raid10
  12. Array Size : (398.00 MiB 417.33 MB)
  13. Used Dev Size : (199.00 MiB 208.67 MB)
  14. Raid Devices :
  15. Total Devices :
  16. Persistence : Superblock is persistent
  17.  
  18. Update Time : Sun May ::
  19. State : clean
  20. Active Devices :
  21. Working Devices :
  22. Failed Devices :
  23. Spare Devices :
  24.  
  25. Layout : near=
  26. Chunk Size : 512K
  27.  
  28. Name : zwj: (local to host zwj)
  29. UUID : 3d1b1b2e:daa4597f:bf838bd1:c6b82c78
  30. Events :
  31.  
  32. Number Major Minor RaidDevice State
  33. active sync set-A /dev/vdb12
  34. active sync set-B /dev/vdb13
  35. active sync set-A /dev/vdb14
  36. active sync set-B /dev/vdb15
  37. [root@zwj ~]# mkfs.ext3 /dev/md10 >/dev/null
    [root@zwj ~]# mkdir /mnt/raid10;mount /dev/md10 /mnt/raid10
    [root@zwj ~]# df -h
    Filesystem      Size  Used Avail Use% Mounted on
    /dev/vda1        20G   13G  5.9G  69% /
    /dev/vdb1        20G  936M   18G   5% /mydata
    /dev/md10       386M   11M  356M   3% /mnt/raid10

除了上面的方法,还有一种创建RAID-10的方法,先使用4个分区创建两个RAID-1,/dev/md1和/dev/md2

再使用/dev/md1和/dev/md2创建一个RAID-0,/dev/md10

  • mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/vdb12 /dev/vdb13
  • mdadm --create /dev/md2 --level=1 --raid-devices=2 /dev/vdb14 /dev/vdb15
  • mdadm --create /dev/md10 --level=0 --raid-devices=2 /dev/md1 /dev/md2

RAID-5测试

  奇偶校验信息存储在每个磁盘中,比如说,我们有4个磁盘(预备磁盘不计入内),其中相当于一个磁盘大小的空间被分割去存储所有磁盘的奇偶校验信息。如果任何一个磁盘出现故障,我们可以通过更换故障磁盘后,从奇偶校验信息重建得到原来的数据。

特点:

  • 提供更好的性能。
  • 支持冗余和容错。
  • 支持热备份。
  • 将用掉一个磁盘的容量存储奇偶校验信息。
  • 单个磁盘发生故障后不会丢失数据。我们可以更换故障硬盘后从奇偶校验信息中重建数据。
  • 适合于面向事务处理的环境,读操作会更快。

  1. [root@zwj ~]# mdadm --create /dev/md5 -l -n --spare-devices= /dev/vdb{,,,}
  2. mdadm: /dev/vdb12 appears to be part of a raid array:
  3. level=raid10 devices= ctime=Sun May ::
  4. mdadm: /dev/vdb13 appears to be part of a raid array:
  5. level=raid10 devices= ctime=Sun May ::
  6. mdadm: /dev/vdb14 appears to be part of a raid array:
  7. level=raid10 devices= ctime=Sun May ::
  8. mdadm: /dev/vdb15 appears to be part of a raid array:
  9. level=raid10 devices= ctime=Sun May ::
  10. Continue creating array? y
  11. mdadm: Defaulting to version 1.2 metadata
  12. mdadm: array /dev/md5 started.
  13. [root@zwj ~]# mdadm -D /dev/md5
  14. /dev/md5:
  15. Version : 1.2
  16. Creation Time : Sun May ::
  17. Raid Level : raid5
  18. Array Size : (398.00 MiB 417.33 MB)
  19. Used Dev Size : (199.00 MiB 208.67 MB)
  20. Raid Devices :
  21. Total Devices :
  22. Persistence : Superblock is persistent
  23.  
  24. Update Time : Sun May ::
  25. State : clean
  26. Active Devices :
  27. Working Devices :
  28. Failed Devices :
  29. Spare Devices :
  30.  
  31. Layout : left-symmetric
  32. Chunk Size : 512K
  33.  
  34. Name : zwj: (local to host zwj)
  35. UUID : 27119caa:5e2deb6e:427c4d7f:536669ca
  36. Events :
  37.  
  38. Number Major Minor RaidDevice State
  39. active sync /dev/vdb12
  40. active sync /dev/vdb13
  41. active sync /dev/vdb14
  42.  
  43. - spare /dev/vdb15
  44. [root@zwj ~]# cat /proc/mdstat
  45. Personalities : [raid0] [raid10] [raid6] [raid5] [raid4]
  46. md5 : active raid5 vdb14[] vdb15[](S) vdb13[] vdb12[]
  47. blocks super 1.2 level , 512k chunk, algorithm [/] [UUU]
  48.  
  49. unused devices: <none>
  50. [root@zwj ~]# mkfs.ext3 /dev/md5 >/dev/null
  51. [root@zwj ~]# mkdir -p /mnt/raid5
  52. [root@zwj ~]# mount /dev/md5 /mnt/raid5
  53. [root@zwj ~]# df -h
  54. Filesystem Size Used Avail Use% Mounted on
  55. /dev/vda1 20G 13G .9G % /
  56. /dev/vdb1 20G 936M 18G % /mydata
  57. /dev/md5 386M 11M 356M % /mnt/raid5
  58. [root@zwj ~]# cd /mnt/raid5
  59. [root@zwj raid5]# dd if=/dev/zero of=50_M_file bs=1M count=
  60. + records in
  61. + records out
  62. bytes ( MB) copied, 0.1711 s, MB/s
  63. [root@zwj raid5]# df -h
  64. Filesystem Size Used Avail Use% Mounted on
  65. /dev/vda1 20G 13G .9G % /
  66. /dev/vdb1 20G 936M 18G % /mydata
  67. /dev/md5 386M 61M 306M % /mnt/raid5
  68. [root@zwj raid5]# echo "assume /dev/vdb13 fail---";mdadm --manage /dev/md5 --fail /dev/vdb13;mdadm -D /dev/md5     #模拟/dev/vdb13损坏
  69. assume /dev/vdb13 fail---
  70. mdadm: set /dev/vdb13 faulty in /dev/md5
  71. /dev/md5:
  72. Version : 1.2
  73. Creation Time : Sun May ::
  74. Raid Level : raid5
  75. Array Size : (398.00 MiB 417.33 MB)
  76. Used Dev Size : (199.00 MiB 208.67 MB)
  77. Raid Devices :
  78. Total Devices :
  79. Persistence : Superblock is persistent
  80.  
  81. Update Time : Sun May ::
  82. State : clean, degraded, recovering
  83. Active Devices : 2                                   #活跃的2个磁盘,因为坏了1个                                
  84. Working Devices : 3                                   #处于工作状态的有3个,1个spare
    Failed Devices : 1                                   #坏了1个
  85. Spare Devices : 1                                   #1个spare                  
  86.  
  87. Layout : left-symmetric
  88. Chunk Size : 512K
  89.  
  90. Rebuild Status : 0% complete
  91.  
  92. Name : zwj: (local to host zwj)
  93. UUID : 27119caa:5e2deb6e:427c4d7f:536669ca
  94. Events :
  95.  
  96. Number Major Minor RaidDevice State
  97. active sync /dev/vdb12
  98. 3 252 31 1 spare rebuilding /dev/vdb15     #正在自动重建RAID5   
  99. active sync /dev/vdb14
  100.  
  101. 1 252 29 - faulty /dev/vdb13           #显示循坏的/dev/vdb13
  102. [root@zwj raid5]# mdadm -D /dev/md5                          #检查是否重建完毕
  103. /dev/md5:
  104. Version : 1.2
  105. Creation Time : Sun May ::
  106. Raid Level : raid5
  107. Array Size : (398.00 MiB 417.33 MB)
  108. Used Dev Size : (199.00 MiB 208.67 MB)
  109. Raid Devices :
  110. Total Devices :
  111. Persistence : Superblock is persistent
  112.  
  113. Update Time : Sun May ::
  114. State : clean
  115. Active Devices :
  116. Working Devices :
  117. Failed Devices :
  118. Spare Devices : 0                          #没有备用的了
  119.  
  120. Layout : left-symmetric
  121. Chunk Size : 512K
  122.  
  123. Name : zwj: (local to host zwj)
  124. UUID : 27119caa:5e2deb6e:427c4d7f:536669ca
  125. Events :
  126.  
  127. Number Major Minor RaidDevice State
  128. active sync /dev/vdb12
  129. 3 252 31 1 active sync /dev/vdb15
  130. active sync /dev/vdb14
  131.  
  132. 1 252 29 - faulty /dev/vdb13
  133. [root@zwj raid5]# cat /proc/mdstat
  134. Personalities : [raid0] [raid10] [raid6] [raid5] [raid4]
  135. md5 : active raid5 vdb14[4] vdb15[3] vdb13[1](F) vdb12[0]
  136. blocks super 1.2 level , 512k chunk, algorithm [/] [UUU]
  137.  
  138. unused devices: <none>
  139. [root@zwj raid5]# mdadm --manage /dev/md5 --remove /dev/vdb13 --add /dev/vdb13;mdadm -D /dev/md5 #移除损坏的/dev/vdb13,并加入新的分区(这里还是/dev/vdb13)
  140. mdadm: hot removed /dev/vdb13 from /dev/md5
  141. mdadm: added /dev/vdb13
  142. /dev/md5:
  143. Version : 1.2
  144. Creation Time : Sun May ::
  145. Raid Level : raid5
  146. Array Size : (398.00 MiB 417.33 MB)
  147. Used Dev Size : (199.00 MiB 208.67 MB)
  148. Raid Devices :
  149. Total Devices :
  150. Persistence : Superblock is persistent
  151.  
  152. Update Time : Sun May ::
  153. State : clean
  154. Active Devices :
  155. Working Devices :
  156. Failed Devices :
  157. Spare Devices :
  158.  
  159. Layout : left-symmetric
  160. Chunk Size : 512K
  161.  
  162. Name : zwj: (local to host zwj)
  163. UUID : 27119caa:5e2deb6e:427c4d7f:536669ca
  164. Events :
  165.  
  166. Number Major Minor RaidDevice State
  167. active sync /dev/vdb12
  168. active sync /dev/vdb15
  169. active sync /dev/vdb14
  170.  
  171. 252 29 - spare /dev/vdb13
  172. [root@zwj raid5]# df -h
    Filesystem      Size  Used Avail Use% Mounted on
    /dev/vda1        20G   13G  5.9G  69% /
    /dev/vdb1        20G  936M   18G   5% /mydata
    /dev/md5        386M   61M  306M  17% /mnt/raid5

软件磁盘阵列(RAID)的更多相关文章

  1. 软件磁盘阵列 (Software RAID)

    什么是 RAID 磁盘阵列全名是『 Redundant Arrays of Inexpensive Disks, RAID 』,容错式廉价磁盘阵列. RAID 可以通过一些技术(软件或硬件),将多个较 ...

  2. Linux学习-软件磁盘阵列 (Software RAID)

    什么是 RAID 磁盘阵列全名是『 Redundant Arrays of Inexpensive Disks, RAID 』,英翻中的意思是:容错式廉价磁盘阵列.RAID 可以透过一个技术(软件或硬 ...

  3. linux基础-磁盘阵列(RAID)实例详解

    磁盘阵列(RAID)实例详解 raid技术分类 软raid技术 硬raid技术 Raid和lvm的区别 为什么选择用raid RAID详解 RAID-0 RAID-1 RAID-5 Raid-10 R ...

  4. 磁盘阵列RAID

                                                                                  磁盘阵列RAID 年提出的.RAID名为独立 ...

  5. 存储之磁盘阵列RAID

         存储之磁盘阵列RAID RAID是由美国加州大学伯克利分校的D.A. Patterson教授在1988年提出的.RAID名为独立冗余磁盘阵列(RedundantArray of Indepe ...

  6. 如何判断linux使用的是HDD还是SSD、HHD;磁盘阵列RAID

    硬盘种类:SSD固态硬盘.HDD机械硬盘.HHD混合硬盘(里面既有机械硬盘也有固态硬盘,固态硬盘用来高速缓存,机械硬盘用来存储). HHD是机械硬盘和固态硬盘的结合体.我们可以理解为其就是两块硬盘,固 ...

  7. (转)磁盘阵列RAID原理、种类及性能优缺点对比

    磁盘阵列RAID原理.种类及性能优缺点对比 原文:http://www.cnblogs.com/chuncn/p/6008173.html 磁盘阵列(Redundant Arrays of Indep ...

  8. 一张图看懂单机/集群/热备/磁盘阵列(RAID)

  9. 磁盘阵列 RAID 技术原理详解

    RAID一页通整理所有RAID技术.原理并配合相应RAID图解,给所有存储新人提供一个迅速学习.理解RAID技术的网上资源库,本文将持续更新,欢迎大家补充及投稿.中国存储网一如既往为广大存储界朋友提供 ...

随机推荐

  1. Tomcat的类加载器

    看完了Java类装载器,我们再来看看应用服务器(Tomcat)对类加载器的使用,每个应用服务器都有一套自己的类加载器体系,从而与Java的类加载器区别开以达到自己与应用程序隔离的目的.Tomcat的类 ...

  2. layui动态渲染生成select的option值

    脚本语言:设定默认值:直接拼接,然后根据返回值渲染select// 动态渲染脚本类型下拉框 // 1.发送ajax请求得到data // 2.将data渲染到页面上 function getDataL ...

  3. App上架注意事项(转)

    上传不出现构建版本 现在苹果要求先上传版本,然后在提交审核,但是现在经常上传完应用后,不出现构建版本,等待很久很久,也不出现,那么怎么解决,我告诉你~~尼玛的苹果是自己数据丢包了,结果就造成你不出现构 ...

  4. MySQL 中文显示乱码

    最近关于中文显示乱码的贴子比较多,所以也做了个总结: 可以参考一下杨涛涛版主的<各种乱码问题汇总> http://topic.csdn.net/u/20071124/08/3b7eae69 ...

  5. MapReduce源码分析之Task中关于对应TaskAttempt存储Map方案的一些思考

    我们知道,MapReduce有三层调度模型,即Job——>Task——>TaskAttempt,并且: 1.通常一个Job存在多个Task,这些Task总共有Map Task和Redcue ...

  6. openWRT自学---针对backfire版本的主要目录和文件的作用的分析整理

    特别说明:要编译backfire版本,一定要通过svn下载:svn co svn://svn.openwrt.org/openwrt/branches/backfire,而不能使用http://dow ...

  7. Android开发学习秘籍笔记(十九)

    吼.花了2天最后做出了一个类似于蓝牙串口助手功能的小程序,事实上也是实习公司的要求---有一个蓝牙无线扫描枪,要求终端能够通过蓝牙连接到该设备,而且蓝牙无线扫描枪扫描二维码或者条形码的时候能够将二维码 ...

  8. Elasticsearch5.X IN Windows 10 系列文章(3)

    系统类型:windows10 64位家庭版 ElasticSearch版本: 5.5.1 (最新稳定版为5.5.2),由于用到IK中文分词插件,最新版本没有5.5.2 ,所以使用5.5.1 日期:20 ...

  9. 虚拟化笔记05 OpenFiler configuration

    5.OpenFiler configuration 登录Openfiler 步骤1:安装 FireFox 步骤2:通过FireFox以HTTPS://server-ip:446 远程访问OpenFil ...

  10. java 获取网页指定内容

    import java.io.BufferedReader; import java.io.InputStreamReader; import java.net.HttpURLConnection; ...