部署Multipath多路径环境

  1. 配置iSCSI服务
  2. 编写udev规则
  3. 配置并访问NFS共享
  4. 部署Multipath多路径环境

1 配置iSCSI服务

1.1 问题

本案例要求先搭建好一台iSCSI服务器,并将整个磁盘共享给客户端:

  • 虚拟机添加新的磁盘
  • 将新添加的磁盘分区并创建两个逻辑卷
  • 逻辑卷名称分别为:/dev/myvg/iscsi1和/dev/myvg/iscsi2
  • 服务器通过配置文件与命令两种方式共享逻辑卷

然后客户机挂载iSCSI服务器共享的磁盘:

  • 客户端使用命令探测服务器共享的iSCSI磁盘
  • 客户端挂载iSCSI磁盘
  • 分区并格式化

1.2 方案

使用2台RHEL6虚拟机,其中一台作为iSCSI服务器(192.168.4.5)、另外一台作为测试用的Linux客户机(192.168.4.205),如图-1所示。

图-1

在RHEL6系统中,默认通过scsi-target-utils软件包提供iSCSI服务,因此需要在服务端安装scsi-target-utils包并配置对应的服务,iSCSI服务主要配置选项如表-1所示。

表-1 iSCSI配置选项列表

客户端挂载iSCSI服务器:

  • 客户端需要安装iscsi-initiator-utils软件包
  • 客户端使用命令挂载后需要分区、格式化并进行挂载测试

1.3 步骤

实现此案例需要按照如下步骤进行。

步骤一:安装iSCSI服务器软件

1)使用yum安装scsi-target-utils软件包

  1. [root@svr5 ~]# yum  -y  install  scsi-target-utils
  2. .. ..
  3. [root@svr5 ~]# rpm  -q  scsi-target-utils
  4. scsi-target-utils-1.0.24-10.el6.x86_64

2)启用target服务,并设为开机自动运行

  1. [root@svr5 ~]# service  tgtd  start  ;  chkconfig  tgtd  on
  2. Starting SCSI target daemon:                               [  OK  ]

tgtd服务默认通过TCP 3260端口监听客户端请求:

  1. [root@svr5 ~]# netstat  -anptu  |  grep tgtd
  2. tcp        0      0 0.0.0.0:3260    0.0.0.0:*    LISTEN      2737/tgtd

步骤二:创建逻辑卷

1)为新建磁盘/dev/sdb创建分区

  1. [root@svr5 ~]# parted /dev/sdb mklabel gpt
  2. [root@svr5 ~]# parted /dev/sdb mkpart primary 1 1000
  3. [root@svr5 ~]# parted /dev/sdb mkpart primary 1000 2000

2)创建逻辑卷

  1. [root@svr5 ~]# pvcreate /dev/sdb{1,2}
  2. [root@svr5 ~]# vgcreate myvg /dev/sdb{1,2}
  3. [root@svr5 ~]# lvcreate -n iscsi1 –L 800M myvg
  4. [root@svr5 ~]# lvcreate -n iscsi2 –L 800M myvg
  5. [root@svr5 ~]# lvscan

步骤三:通过命令行配置iSCSI服务

1)创建target

  1. [root@svr5 ~]# tgtadm --lld iscsi --op new --mode \
  2. > target --tid 1 -T iqn.2015-04.com.tarena.www:iscsi1

2)为target导入本地磁盘

  1. [root@svr5 ~]# tgtadm --lld iscsi --op new --mode \
  2. >logicalunit  --tid 1 --lun 1 -b /dev/myvg/iscsi1

3)配置ACL

  1. [root@svr5 ~]# tgtadm --lld iscsi --op bind --mode \
  2. > target --tid 1 -I 192.168.4.0/24

4)将以上三条命令加入开机启动文件

  1. [root@svr5 ~]# vim /etc/rc.local
  2. .. ..
  3. tgtadm --lld iscsi --op new --mode target --tid 1 -T iqn.2015-04.com.tarena.www:iscsi1
  4. tgtadm --lld iscsi --op new --mode logicalunit  --tid 1 --lun 1 -b /dev/myvg/iscsi1
  5. tgtadm --lld iscsi --op bind --mode target --tid 1 -I 192.168.4.0/24

步骤四:通过配置文件实现iSCSI服务

1)修改配置文件

  1. [root@svr5 ~]# vim /etc/tgt/targets.conf
  2. <target  iqn.2015-04.com.tarena.www:iscsi2 >
  3. # List of files to export as LUNs
  4. backing-store /dev/myvg/iscsi2            //定义存储设备
  5. initiator-address 192.168.4.0/24        //定义ACL
  6. </target>

2)重启计算机,验证服务是否开机有效

  1. [root@svr5 ~]# reboot

步骤五:客户端访问

1)客户端安装软件

  1. [root@pc205 ~]# yum -y install iscsi-initiator-utils

2)客户端探测服务器共享

  1. [root@pc205 ~]# iscsiadm -m discovery -t sendtargets -p 192.168.4.5:3260

3)客户端挂载iSCSI共享

  1. [root@pc205 ~]# iscsiadm -m node -T \
  2. >iqn.2015-04.com.tarena.www:iscsi1 \
  3. >-p 192.168.4.5:3260 –l
  4. [root@pc205 ~]# iscsiadm -m node -T \
  5. >iqn.2015-04.com.tarena.www:iscsi2 \
  6. >-p 192.168.4.5:3260 –l

4)分区、格式化、挂载

  1. [root@pc205 ~]# fdisk –cul                //查看挂载的iSCSI共享盘
  2. [root@pc205 ~]# parted /dev/sdb mklabel gpt
  3. [root@pc205 ~]# parted /dev/sdb mkpart primary 1 800
  4. [root@pc205 ~]# parted /dev/sdc mklabel gpt
  5. [root@pc205 ~]# parted /dev/sdc mkpart primary 1 800
  6. [root@pc205 ~]# mount /dev/sdb1  /mnt

 编写udev规则

2.1 问题

编写udev规则,实现以下目标:

  1. 当插入一个U盘时,该U盘自动出现一个链接称为udisk
  2. U盘上的第1个分区名称为udisk1,以此类推
  3. 终端上出现提示”udisk plugged in”

2.2 方案

对于Linux kernel 2.6及更新的操作系统版本udev是系统的设备管理器,udev会分析sysfs的数据,并根据自己的udev规则,实现如下功能:

  • 处理设备命名
  • 决定要创建哪些设备文件或链接
  • 决定如何设置属性
  • 决定触发哪些事件

udev默认规则存放在/etc/udev/rules.d目录下,通过修改次目录下的规则实现设备的命名、属性、链接文件等。

Udev规则文件,常见指令操作符如表-2所示。

表-2 udev常见指令操作符

udev常用替代变量:

  • %k:内核所识别出来的设备名,如sdb1
  • %n:设备的内核编号,如sda3中的3
  • %p:设备路径,如/sys/block/sdb/sdb1
  • %%:%符号本身

2.3 步骤

实现此案例需要按照如下步骤进行。

步骤一:编写udev规则

1)查看设备属性

代码

2)编写udev规则文件

  1. [root@svr5 ~]# vim  /etc/udev/rules.d/70-usb.rules
  2. SUBSYSTEM=="block",ENV{DEVTYPE}="disk",KERNEL=="sdb",ENV{ID_VENDOR}=="TOSHIBA",SYMLINK="udisk",RUN+="/usr/bin/wall udisk plugged in"
  3. SUBSYSTEM=="block",ACTION=="add",KERNEL=="sdb[0-9]",ENV{ID_VENDOR_ID}=="0930",ENV{DEVTYPE}=="partition",NAME="udisk%n"

步骤二:添加设备测试结果

点击VMware“虚拟机“菜单,在”可移动设备“菜单下,找到自己的U盘设备,点击”连接“与”断开“,测试自己的udev规则是否成功。


配置并访问NFS共享

3.1 问题

利用NFS机制发布2个共享目录,要求如下:

  • 将目录/root共享给客户机192.168.4.205,客户机的root用户有权限写入
  • 将/usr/src目录共享给192.168.4.0/24网段,只开放读取权限

从客户机访问NFS共享:

  • 分别查询/挂载上述NFS共享目录
  • 查看挂载点目录,并测试是否有写入权限
  • 为访问NFS共享目录 /usr/src 配置触发挂载,挂载点为 /misc/nfsdir

3.2 方案

使用2台RHEL6虚拟机,其中一台作为NFS共享服务器(192.168.4.5)、另外一台作为测试用的Linux客户机(192.168.4.205),如图-2所示。

图-2

NFS共享的配置文件:/etc/exports 。

配置记录格式:文件夹路径 客户地址1(控制参数.. ..) 客户地址2(.. ..) 。

3.3 步骤

实现此案例需要按照如下步骤进行。

步骤一:配置NFS服务器,发布指定的共享

1)确认服务端程序、准备共享目录

软件包nfs-utils用来提供NFS共享服务及相关工具,而软件包rpcbind用来提供RPC协议的支持,这两个包在RHEL6系统中一般都是默认安装的:

  1. [root@svr5 ~]# rpm  -q  nfs-utils  rpcbind
  2. nfs-utils-1.2.3-39.el6.x86_64
  3. rpcbind-0.2.0-11.el6.x86_64

根据本例的要求,需要作为NFS共享发布的有/root、/usr/src这两个目录:

  1. [root@svr5 ~]# ls  -ld  /root  /usr/src/
  2. dr-xr-x---. 35 root root 4096 1月  15 18:52 /root
  3. drwxrwxr-x+  4 root root 4096 1月  15 17:35 /usr/src/

2)修改/etc/exports文件,添加共享目录设置

默认情况下,来自NFS客户端的root用户会被降权,若要保留其root权限,注意应添加no_root_squash控制参数;另外,限制只读的参数为ro、可读可写为rw,相关配置操作如下所示:

  1. [root@svr5 ~]# vim  /etc/exports
  2. /root           192.168.4.205(rw,no_root_squash)
  3. /usr/src        192.168.4.0/24(ro)

3)启动NFS共享相关服务,确认共享列表

依次启动rpcbiind、nfs服务:

  1. [root@svr5 ~]# service  rpcbind  restart  ;  chkconfig  rpcbind  on
  2. 停止 rpcbind:                                       [确定]
  3. 正在启动 rpcbind:                                    [确定]
  4. [root@svr5 ~]# service  nfs  restart  ;  chkconfig  nfs  on
  5. .. ..
  6. 启动 NFS 服务:                                     [确定]
  7. 关掉 NFS 配额:                                     [确定]
  8. 启动 NFS mountd:                                    [确定]
  9. 启动 NFS 守护进程:                                   [确定]
  10. 正在启动 RPC idmapd:                                [确定]

使用showmount命令查看本机发布的NFS共享列表:

  1. [root@svr5 ~]# showmount  -e  localhost
  2. Export list for localhost:
  3. /usr/src 192.168.4.0/24
  4. /root    192.168.4.205

步骤二:从客户机访问NFS共享

1)启用NFS共享支持服务

客户机访问NFS共享也需要rpcbind服务的支持,需确保此服务已开启:

  1. [root@pc205 ~]# service  rpcbind  restart  ;  chkconfig  rpcbind  on
  2. 停止 rpcbind:                                      [确定]
  3. 正在启动 rpcbind:                                    [确定]

2)查看服务器提供的NFS共享列表

  1. [root@pc205 ~]# showmount  -e  192.168.4.5
  2. Export list for 192.168.4.5:
  3. /usr/src 192.168.4.0/24
  4. /root    192.168.4.205

3)从客户机192.168.4.205访问两个NFS共享,并验证权限

将远程的NFS共享/root挂载到本地的/root5文件夹,并验证可读可写:

  1. [root@pc205 ~]# mkdir  /root5                          //建立挂载点
  2. [root@pc205 ~]# mount  192.168.4.5:/root  /root5          //挂载NFS共享目录
  3. [root@pc205 ~]# df  -hT  /root5                          //确认挂载结果
  4. Filesystem        Type  Size  Used Avail Use% Mounted on
  5. 192.168.4.5:/root nfs    50G   15G   33G  31% /root5
  6. [root@pc205 ~]# cd  /root5                              //切换到挂载点
  7. [root@pc205 root5]# echo "NFS Write Test" >  pc205.txt     //测试写入文件
  8. [root@pc205 root5]# cat pc205.txt                      //测试查看文件
  9. NFS Write Test

将远程的NFS共享/usr/src挂载到本地的/mnt/nfsdir,并验证只读:

  1. [root@pc205 ~]# mkdir  /mnt/nfsdir                      //建立挂载点
  2. [root@pc205 ~]# mount  192.168.4.5:/usr/src  /mnt/nfsdir/      //挂载NFS共享目录
  3. [root@pc205 ~]# df  -hT  /mnt/nfsdir/                          //确认挂载结果
  4. Filesystem           Type  Size  Used Avail Use% Mounted on
  5. 192.168.4.5:/usr/src nfs    50G   15G   33G  31% /mnt/nfsdir
  6. [root@pc205 ~]# cd  /mnt/nfsdir/                          //切换到挂载点
  7. [root@pc205 nfsdir]# ls                                  //读取目录列表
  8. debug  install.log  kernels  test.txt
  9. [root@pc205 nfsdir]# echo  "Write Test."  >  pc205.txt  //尝试写入文件失败
  10. -bash: pc205.txt: 只读文件系统

!!!! 如果从未授权的客户机访问NFS共享,将会被拒绝。比如从NFS服务器本机尝试访问自己发布的/root共享(只允许192.168.4.205访问),结果如下所示:

  1. [root@svr5 ~]# mkdir  /root5
  2. [root@svr5 ~]# mount  192.168.4.5:/root  /root5
  3. mount.nfs: access denied by server while mounting 192.168.4.5:/root

4)为NFS共享/usr/src添加触发挂载

要求的触发挂载点为/misc/nfsdir,其中/misc为autofs服务默认监控的文件夹,只需修改/etc/auto.misc文件,添加nfsdir的挂载设置即可:

  1. [root@pc205 ~]# vim  /etc/auto.misc
  2. .. ..
  3. nfsdir         -fstype=nfs,ro          192.168.4.5:/usr/src

确保重载autofs服务:

  1. [root@pc205 ~]# service  autofs  restart  ;  chkconfig  autofs  on
  2. 停止 automount:                                    [确定]
  3. 正在启动 automount:                                 [确定]

然后ls检查预期的挂载点,应该显示远程NFS共享/usr/src目录的内容,表示针对此NFS共享的触发挂载设置成功:

  1. [root@pc205 ~]# ls  /misc/nfsdir                      //查看以触发挂载操作
  2. debug  install.log  kernels  test.txt
  3. [root@pc205 ~]# df  -hT  /misc/nfsdir/              //确认触发结果
  4. Filesystem           Type  Size  Used Avail Use% Mounted on
  5. 192.168.4.5:/usr/src nfs    50G   15G   33G  31% /misc/nfsdir

部署Multipath多路径环境

4.1 问题

通过Multipath,实现以下目标:

  • 在共享存储服务器上配置iSCSI,为应用服务器共享存储空间
  • 应用服务器上配置iSCSI,发现远程共享存储
  • 应用服务器上配置Multipath,将相同的共享存储映射为同一个名称

4.2 方案

配置2台虚拟机,每台虚拟机均为三块网卡:

  • eth0用作网络通信
  • eth1和eth2用于iSCSI存储
  • 具体配置如表-3所示

表-3 各节点IP地址配置

4.3 步骤

实现此案例需要按照如下步骤进行。

步骤一:存储节点上添加额外的磁盘

使用VMware软件新建(或修改)虚拟机,为虚拟机额外添加一块硬盘。

步骤二:存储节点上安装并配置共享存储

1)安装target软件

打开命令行终端,执行以下命令:

  1. [root@storage ~]# vim /etc/tgt/targets.conf
  2. 添加以下内容:
  3. <target iqn.2016-05.cn.tedu.storage>
  4. backing-store /dev/sdb1
  5. initiator-address 192.168.1.10
  6. initiator-address 192.168.2.10
  7. </target>

2)启动服务并查看结果

  1. [root@storage ~]# service tgtd start
  2. [root@storage ~]# chkconfig tgtd on
  3. [root@storage ~]# tgt-admin -s
  4. Target 1: iqn.2016-05.cn.tedu.storage
  5. System information:
  6. Driver: iscsi
  7. State: ready
  8. I_T nexus information:
  9. LUN information:
  10. LUN: 0
  11. Type: controller
  12. SCSI ID: IET     00010000
  13. SCSI SN: beaf10
  14. Size: 0 MB, Block size: 1
  15. Online: Yes
  16. Removable media: No
  17. Prevent removal: No
  18. Readonly: No
  19. Backing store type: null
  20. Backing store path: None
  21. Backing store flags:
  22. LUN: 1
  23. Type: disk
  24. SCSI ID: IET     00010001
  25. SCSI SN: beaf11
  26. Size: 2147 MB, Block size: 512
  27. Online: Yes
  28. Removable media: No
  29. Prevent removal: No
  30. Readonly: No
  31. Backing store type: rdwr
  32. Backing store path: /dev/sdb1
  33. Backing store flags:
  34. Account information:
  35. ACL information:
  36. 192.168.1.10
  37. 192.168.2.10

注意以上的输出,正确的结果必须有LUN1,它记录的是共享磁盘信息。下面的ACL指的是该共享存储允许哪些应用服务器使用。

步骤三:在应用服务器上安装并配置iSCSI客户端

1)安装客户端软件

  1. [root@srv0 yum.repos.d]# yum list | grep iscsi
  2. iscsi-initiator-utils.x86_64           6.2.0.873-14.el6                   Server
  3. [root@srv0 yum.repos.d]# yum install -y iscsi-initiator-utils

2)发现存储服务器的共享磁盘

因为有两条链路都可以连接到共享存储,所以需要在两条链路上都发现它。

  1. [root@srv0 桌面]# iscsiadm --mode discoverydb --type sendtargets --portal 192.168.1.20 --discover
  2. 正在启动 iscsid:                                          [确定]
  3. 192.168.1.20:3260,1 iqn.2016-05.cn.tedu.storage
  4. [root@srv0 桌面]# iscsiadm --mode discoverydb --type sendtargets --portal 192.168.2.20 --discover
  5. 192.168.2.20:3260,1 iqn.2016-05.cn.tedu.storage
  6. [root@srv0 桌面]#

3)登陆共享存储

只需要将iscsi服务重启就可以自动登陆。在login之前,只能看到本地的存储,登陆之后,将会多出两块新的硬盘。

  1. [root@srv0 ~]# lsblk
  2. NAME                        MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
  3. sda                           8:0    0   200G  0 disk
  4. ├─sda1                        8:1    0   500M  0 part /boot
  5. └─sda2                        8:2    0 199.5G  0 part
  6. ├─VolGroup-lv_root (dm-0) 253:0    0    50G  0 lvm  /
  7. ├─VolGroup-lv_swap (dm-1) 253:1    0   3.9G  0 lvm  [SWAP]
  8. └─VolGroup-lv_home (dm-2) 253:2    0 145.6G  0 lvm  /home
  9. sr0                          11:0    1   3.6G  0 rom  /media/cdrom
  10. [root@srv0 ~]# service iscsi restart
  11. 停止 iscsi:                                             [确定]
  12. 正在启动 iscsi:                                          [确定]
  13. [root@srv0 ~]# lsblk
  14. NAME                        MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
  15. sda                           8:0    0   200G  0 disk
  16. ├─sda1                        8:1    0   500M  0 part /boot
  17. └─sda2                        8:2    0 199.5G  0 part
  18. ├─VolGroup-lv_root (dm-0) 253:0    0    50G  0 lvm  /
  19. ├─VolGroup-lv_swap (dm-1) 253:1    0   3.9G  0 lvm  [SWAP]
  20. └─VolGroup-lv_home (dm-2) 253:2    0 145.6G  0 lvm  /home
  21. sr0                          11:0    1   3.6G  0 rom  /media/cdrom
  22. sdb                           8:16   0     2G  0 disk
  23. sdc                           8:32   0     2G  0 disk
  24. [root@srv0 ~]#

4)设置开机自启动

iscsi用于自动login远程存储,iscsid是守护进程。

  1. [root@srv0 ~]# chkconfig iscsid on
  2. [root@srv0 ~]# chkconfig iscsi on

步骤四:配置Multipath多路径

1)安装多路径软件包

  1. [root@srv0 ~]# yum list | grep multipath
  2. device-mapper-multipath.x86_64         0.4.9-87.el6                       Server
  3. device-mapper-multipath-libs.i686      0.4.9-87.el6                       Server
  4. device-mapper-multipath-libs.x86_64    0.4.9-87.el6                       Server
  5. [root@srv0 ~]# yum install -y device-mapper-multipath

2)生成配置文件

  1. [root@srv0 ~]# mpathconf --user_friendly_names n

此处的选项是不使用系统默认的命名方法,共享存储在生产环境下很有可能是多台应用服务器共同使用。如果使用系统默认命名方法,每台应用服务器为共享存储起的名字不一定相同,这将给管理员带来很大的使用上的不便。关闭系统默认命名方法,共享存储的名字由管理员手工指定。

3)获取wwid

登陆共享存储后,系统多了两块硬盘,这两块硬盘实际上是同一个存储设备。应用服务器使用哪个都可以,但是如果使用sdb时,sdb对应的链路出现故障,它不会自动切换到sdc。

为了能够实现系统自动选择使用哪条链路,需要将这两块磁盘绑定为一个名称。通过磁盘的wwid来判定哪些磁盘是相同的。

取得一块磁盘wwid的方法如下:

  1. [root@srv0 ~]# scsi_id --whitelisted --device=/dev/sdb
  2. 1IET     00010001
  3. [root@srv0 ~]#

4)修改配置文件

首先声明获取wwid的方法:

  1. [root@srv0 ~]# vim /etc/multipath.conf
  2. defaults {
  3. user_friendly_names no
  4. getuid_callout          "/lib/udev/scsi_id --whitelisted --device=/dev/%n"
  5. }

然后在文件的最后加入多路径声明,如果哪个存储设备的wwid和第(3)步获取的wwid一样,那么,为其取一个别名,叫mpatha。

  1. multipaths {
  2. multipath {
  3. wwid    "1IET     00010001"
  4. alias   mpatha
  5. }
  6. }

步骤五:启用Multipath多路径,并测试

1)启动Multipath,并设置为开机启动

  1. [root@srv0 ~]# service multipathd start
  2. 正在启动守护进程multipathd:                               [确定]
  3. [root@srv0 ~]# chkconfig multipathd on

2)检查多路径设备文件

如果多路长设置成功,那么将在/dev/mapper下面生成名为mpatha的设备文件:

  1. [root@srv0 ~]# ls /dev/mapper/
  2. control  mpatha  VolGroup-lv_home  VolGroup-lv_root  VolGroup-lv_swap

3)对多路径设备文件执行分区、格式化、挂载操作

  1. [root@srv0 ~]# fdisk -cu /dev/mapper/mpatha
  2. Device contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel
  3. Building a new DOS disklabel with disk identifier 0x205c887e.
  4. Changes will remain in memory only, until you decide to write them.
  5. After that, of course, the previous content won't be recoverable.
  6. Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite)
  7. Command (m for help): n      #创建分区
  8. Command action
  9. e   extended
  10. p   primary partition (1-4)
  11. p                      #分区类型为主分区
  12. Partition number (1-4): 1      #分区编号为1
  13. First sector (2048-4194303, default 2048):   #起始扇区回车
  14. Using default value 2048
  15. Last sector, +sectors or +size{K,M,G} (2048-4194303, default 4194303):  #回车
  16. Using default value 4194303
  17. Command (m for help): w       #保存并退出
  18. The partition table has been altered!
  19. Calling ioctl() to re-read partition table.

新的分区名称应该是/dev/mapper/mpathap1,如果该文件不存在,则执行以下命令进行配置的重新载入:

  1. [root@srv0 ~]# partprobe ; multipath -rr
  2. Warning: WARNING: the kernel failed to re-read the partition table on /dev/sda (设备或资源忙).  As a result, it may not reflect all of your changes until after reboot.
  3. Warning: 无法以读写方式打开 /dev/sr0 (只读文件系统)。/dev/sr0 已按照只读方式打开。
  4. Warning: 无法以读写方式打开 /dev/sr0 (只读文件系统)。/dev/sr0 已按照只读方式打开。
  5. Warning: 无法以读写方式打开 /dev/sr0 (只读文件系统)。/dev/sr0 已按照只读方式打开。
  6. Warning: WARNING: the kernel failed to re-read the partition table on /dev/sr0 (无效的参数).  As a result, it may not reflect all of your changes until after reboot.
  7. reload: mpatha (1IET     00010001) undef IET,VIRTUAL-DISK
  8. size=2.0G features='0' hwhandler='0' wp=undef
  9. |-+- policy='round-robin 0' prio=1 status=undef
  10. | `- 34:0:0:1 sdb 8:16 active ready running
  11. `-+- policy='round-robin 0' prio=1 status=undef
  12. `- 33:0:0:1 sdc 8:32 active ready running
  13. [root@srv0 ~]# ls /dev/mapper/    #再次查看,将会看到新的分区
  14. control  mpatha  mpathap1  VolGroup-lv_home  VolGroup-lv_root  VolGroup-lv_swap
  15. [root@srv0 ~]#

创建目录并挂载:

  1. [root@srv0 ~]# mkfs.ext4 /dev/mapper/mpathap1
  2. [root@srv0 ~]# mkdir /data
  3. [root@srv0 ~]# mount /dev/mapper/mpathap1 /data/
  4. [root@srv0 ~]# df -h /data/
  5. Filesystem            Size  Used Avail Use% Mounted on
  6. /dev/mapper/mpathap1  2.0G  3.0M  1.9G   1% /data

udev规则,部署Multipath的更多相关文章

  1. Cluster基础(一):配置iSCSI服务、编写udev规则、配置并访问NFS共享、部署Multipath多路径环境

    一.配置iSCSI服务 目标: 本案例要求先搭建好一台iSCSI服务器,并将整个磁盘共享给客户端: 虚拟机添加新的磁盘 将新添加的磁盘分区并创建两个逻辑卷 逻辑卷名称分别为:/dev/myvg/isc ...

  2. udev规则以及编写

    主要内容: udev简介 如何配置和使用udev 如何编写udev规则 字符串替换和匹配 udev主要作用 编写udev规则实例 难点解析 1. udev简介 1.1 什么是udev? udev是Li ...

  3. 编写基本的 udev 规则

    来自: https://linux.cn/article-9365-1.html?utm_source=index&utm_medium=more 读者对象 理解 udev 背后的基本概念,学 ...

  4. udev规则(转)

    Writing udev rules by Daniel Drake (dsd)Version 0.74 The most recent version of this document can al ...

  5. linux 存储技术 部署iSCSI NFS Multipath多路径

    存储技术应用存储是根据不同的应用环境通过采取合理,安全,有效的方式将数据保存到某些介质上并能保证有效的访问另一方面,它是保证数据完整安全存放的方式或行为存储就是把这两方面结合起来,向客户提供一套数据存 ...

  6. 二十五 存储技术与应用 iSCSI技术应用 、 udev配置 NFS网络文件系统 、 Multipath多路径 、 NFS网络文件系统 、 udev配置

    1.配置iSCSI服务 服务器上要额外配置一块硬盘 服务端(proxy)安装target,并将新加的硬盘配置为iSCSI 的共享磁盘 在客户端(client)上安装initiator,挂载服务器iSC ...

  7. udev和rules使用规则

    本文以通俗的方法阐述 udev 及相关术语的概念.udev 的配置文件和规则文件,然后以 Red Hat Enterprise Server 为平台演示一些管理设备文件和查询设备信息的实例.本文会使那 ...

  8. 使用UDEV SCSI规则在Oracle Linux上配置ASM

    对于使用ASM管理的磁盘来说,需要一种能够用于一致性标识磁盘设备及其正确的所属关系和权限的手段.在Linux系统中,可以使用ASMLib来执行这项任务,但是这样做的缺点是在操作系统上增加了额外的一层, ...

  9. udev的规则文件

    转载于:https://linux.cn/article-9365-1.html 介绍 在 GNU/Linux 系统中,虽然设备的底层支持是在内核层面处理的,但是,它们相关的事件管理是在用户空间中通过 ...

随机推荐

  1. ES6中的find与filter的区别

    一直以来以为find和filter是一样的效果,最近在梳理,才发现是不一样的. 首先,filter和find区别:filter返回的是数组,find返回的是对象. 注意:find()找到第一个元素后就 ...

  2. 基于Redis未授权访问的挖矿蠕虫分析

    0x01 攻击方式 利用的是通用漏洞入侵服务器并获得相关权限,从而植入挖矿程序再进行隐藏. 通过对脚本的分析,发现黑客主要是利用 Redis未授权访问漏洞进行入侵.脚本里有个python函数. imp ...

  3. SSM整合搭建(二)

    本页来衔接上一页继续来搭建SSM,再提一下大家如果不详细可以再去看视频哦,B站就有 之后我们来配置SpringMVC的配置文件,主要是配置跳转的逻辑 先扫描所有的业务逻辑组件 我们要用SpringMV ...

  4. Python - 面向对象(二)类方法、静态方法

    面向对象的各种方法 静态方法 - @staticmethod class Person(): name = "cool guy" @staticmethod def static( ...

  5. org.mybatis.spring.MyBatisSystemException: nested exception is org.apache.ibatis.binding.BindingException: Parameter 'employeeId' not found. Available parameters are [page, map, param1, param2] 解决方法

    原因很简单就是没映射到接口添加 @Param 注解 ->@Param("map") 然后在mapper.xml map.employeeId 再次测试 已经解决 ->

  6. 全文搜索技术--Solr7.1之配置中文分析器

    前言:中国文化博大精深,但是solr只能一个一个的识别,而是更加符合中国人的习惯,所以加了中文分析器. 1.安装中文分词器 第一步:把中文分词器(ik-analyzer-solr7-7.x.jar)/ ...

  7. Volatile关键字回顾之线程可见性

    java中,volatile关键字有两大作用: 1.保证线程的可见性 2.防止指令重排序 这篇文章主要通过典型案例,体现可见性这一特性. 概念: java中,堆内存是线程共享的.而每个线程,都应该有自 ...

  8. python-模块的发布和安装

    当我们 import python 模块时,默认先在当前路径搜索,如果当前路径找不到目标模块,python会到安装目录找,还找不到则抛出异常. 如果我们想让自己写的模块,能跟系统自带模块一样,在任何地 ...

  9. Windows下利用Chrome调试IOS设备页面

    本文介绍如何在 Windows 系统中连接 iOS设备 并对 Web 页面进行真机调试 必须前提 iOS设备.数据线 Node.js 环境 Chrome 浏览器 环境准备 安装Node环境 参考Nod ...

  10. Javascript之网页版待办事项

    本文使用原生JS实现站点 http://www.todolist.cn/ 的基本功能. 其中页面的HTML布局和CSS样式取用原站,JS部分为自己编写. 效果图 完整代码 HTML.JS部分 < ...