iSCSI集群与存储
iSCSI集群与存储
存储概述
- 存储的目标
• 存储是根据不同的应用环境通过采取合理、安全、有效的方式将数据保存到某些介质上并能保证有效的访问
• 一方面它是数据临时或长期驻留的物理媒介
• 另一方面,它是保证数据完整安全存放的方式或行为
• 存储就是把这两个方面结合起来,向客户提供一套数据存放解决方案
- 存储技术分类
• SCSI小型计算机系统接口
• DAS直连式存储
• NAS网络技术存储
• SAN存储区域网络
• FC光纤通道
常见存储技术
- SCSI技术
• Small Computer System Interface的简称
• 作为输入/输出接口
• 主要用于硬盘、光盘、磁带机等设备
- DAS技术
• Direct-Attached Storage的简称
• 将存储设备通过SCSI接口或光纤通道直接连接到计算机上
• 不能实现数据与其他主机的共享
• 占用服务器操作系统资源,如CPU、IO等
• 数据量越大,性能越差
- NAS技术
• Network-Attached Storage的简称
• 一种专用数据存储服务器,以数据为中心,将存储设备与服务器彻底分离,集中管理数据,从而释放带宽、提高性能、降低总拥有成本、保护投资
• 用户通过TCP/IP协议访问数据
– 采用标准的NFS/HTTTP/CIFS等
- SAN技术
• Storage Area Network的简称
– 通过光纤交换机、光纤路由器、光纤集线器等设备将磁盘阵列、磁带等存储设备与相关服务器连接起来,形成高速专网网络
• 组成部分
– 如路由器、光纤交换机
– 接口:如SCSI、FC
– 通信协议:如IP、SCSI
- SAN技术(续1)
• Fibre Channel
– 一种适合于千兆数据传输的、成熟而安全解决方案
– 与传统的SCSI相比,FC提供更高的数据传输速率、更远的传输距离、更多的设备连接支持以及更稳定的性能、更简易的安装
- SAN技术(续2)
• FC主要组件
– 光纤
– HBA(主机总线适配置器)
– FC交换机
- SAN技术(续3)
• FC交换机交换拓扑
– 点到点:point-to-point
简单将两个设备互连
– 已裁定的环路:arbitrated loop
可多达126个设备共享一段信道或环路
– 交换式拓扑:switched fabric
所有设备通过光纤交换机互连
- iSCSI技术
• Internet SCSI
• IETF制定的标准,将SCSI数据块映射为以太网数据包
• 是一种基于IP Storage理论的新型存储技术
• 将存储行业广泛应用的SCSI接口技术与IP网络相结合
• 可以在IP网络上构建SAN
• 最初由Cisco和IBM开发
- iSCSI技术(续1)
• 优势
– 基于IP协议技术的标准
– 允许网络在TCP/IP协议上传输SCSI命令
– 相对FC SAN,iSCSI实现的IP SAN投资更低
– 解决了传输效率、存储容量、兼容性、开放性、安全性等方面的问题
– 没有距离限制
- iSCSI技术(续2)
• 客户端
– iSCSI Initiator:软件实现,成本低、性能较低
– iSCSI HBA:硬件实现,性能好,成本较高
• 存储设备端
– iSCSI Target
• 以太网交换机
***********************************************************************************
iSCSI技术应用
基础知识
- iSCSI操作流程
• Target端
– 选择target名称
– 安装iSCSI target
– 准备用于target的存储
– 配置target
– 启用服务
• Initiator端
– 安装initiator
– 配置initiator并启动服务
- iSCSI命名规范
• 建议采用IQN(iSCSI限定名称)
• 全称必须全局唯一
• IQN格式:
iqn.<date_code>.<reversed_domain>.<string>[:<substring>]
• 命名示例:
• iqn.2013-01.com.tarena.tech:sata.rack2.disk1
- 部署iSCSI服务
3.1准备三台虚拟机,配置ip,yum源
3.2初始化主机名
vh01.tedu.cn 192.168.4.1/24
vh02.tedu.cn 192.168.4.2/24
vh03.tedu.cn 192.168.4.3/24
配置ip:nmtui--->Edit--->Ethernet----->ipv4 回车 manual
# systemctl restart NetworkManager
3.4做免密登录
#ssh-keygen
#ssh-copy-id 192.168.4.51/52/53
3.5人肉运维
自运化运维: ansible python
安装target软件 《服务端vh01》
1)查询yum仓库
[root@svr1 ~]#yum list | grep target
2)安装
[root@svr1 ~]#yum -y install targetcli
3)查看iSCSI target信息
[root@svr1 ~]#yum info targetcli
4)为存储端加一块硬盘
//点灯泡,添加硬件,给70G吧
[root@vh01 ~]# lsblk 查看大小
vdb 252:16 0 70G 0 disk
5)分區
[root@vh01 ~]# parted /dev/vdb
(parted) mklabel gpt
是/Yes/否/No? yes
(parted) mkpart primary 1M 10%
(parted) mkpart primary 10% 20%
(parted) print
(parted) quit
[root@vh01 ~]# lsblk
6)配置iSCSI Target
- 定义后端存储
[root@svr1 ~]#targetcli
/> ls
/> backstores/block create formysql /dev/vdb1
v //创建iqn对象
/> /iscsi create iqn.2018-06.cn.tedu.nsd1802
v //将创建的iscsidisk关联到iqn中(把共享名和后端的设备通过lun关联在一起)
/>/iscsi/iqn.2018-06.cn.tedu.nsd1802/tpg1/luns create /backstores/block/formysql
v //设置acl,指定哪个客户端可以访问该共享存储
/>/iscsi/iqn.2018-06.cn.tedu.nsd1802/tpg1/acls create iqn.2018-06.cn.tedu.vh02
v // 绑定服务监听在0.0.0.0上
/> /iscsi/iqn.2018-06.cn.tedu.nsd1802/tpg1/portals/ create 0.0.0.0
v //存盘
/> saveconfig
7)重啓服務
[root@vh01 ~]# systemctl restart target
[root@vh01 ~]# systemctl enable target
[root@vh01 ~]# netstat -ntulp | grep 3260
tcp 0 0 0.0.0.0:3260 0.0.0.0:* LISTEN -
客户端设置<vh02>
1)配置vh02和vh03为客户端,使用vh01的共享存储
[root@vh02 ~]# yum -y install iscsi-initiator-utils
//在实验环境可以跳过,生产环境需要确认
[root@vh02 ~]# vim /etc/iscsi/initiatorname.iscsi
InitiatorName=iqn.2018-06.cn.tedu.vh02 //客户端名称,必须与targert的acl一致
2)发现储存
root@vh02 ~]# man iscsiadm // 找参考命令,在最后
[root@vh02 ~]# iscsiadm --mode discoverydb --type sendtargets --portal 192.168.4.1 --discover // 发现存储
192.168.4.1:3260,1 iqn.2018-06.cn.tedu.nsd1802
3)查看储存
[root@vh02 ~]# lsblk //此时还不会出现额外的硬盘
sr0 11:0 1 1024M 0 rom
[root@vh02 ~]# systemctl restart iscsi 重启iscsi即可自动login
[root@vh02 ~]# lsblk //发现多出来了sda设备
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 14G 0 disk
sr0 11:0 1 1024M 0 rom
4)重起服务
[root@vh02 ~]# systemctl enable iscsi // 用于自动login
[root@vh02 ~]# systemctl enable iscsid // iscsid服务
5)在vh02上将sda分区格式化
[root@vh02 ~]# parted /dev/sda 将所有空间分一个分区即可
(parted) mklabel gpt
(parted) mkpart primary 1M 100%
(parted) quit
6)格式化
[root@vh02 ~]# mkfs.ext4 /dev/sda1
7)在vh02上配置mariadb
[root@vh02 ~]# yum -y install mariadb-server
[root@vh02 ~]# mount /dev/sda1 /var/lib/mysql/
[root@vh02 ~]# chown mysql:mysql /var/lib/mysql/
[root@vh02 ~]# systemctl restart mariadb
配置数据库<vn02>
[root@vh02 ~]# mysql -uroot
MariaDB [(none)]> create database tedu default charset utf8;
MariaDB [(none)]> use tedu;
MariaDB [tedu]> create table nsd1802(name varchar(20));
MariaDB [tedu]> insert into nsd1802 values('王美玲');
MariaDB [tedu]> select * from nsd1802;
[root@vh02 ~]# shutdown -h now
客户端设置<vh03>
在vh03上使用vh02的创建的数据库,继续提供服务
不要试图多节点同时挂载共享存储,因为xfs/ext文件系统都是单一节点文件系统,如果多节点同时挂载,会导致分区结构损坏。红帽的GFS才能支持多节点同时挂载。
不要试图多节点同时挂载共享存储
1)安装客户端软件iscsi
[root@vh03 ~]# yum -y install iscsi-initiator-utils
2)先进入服务器vh01添加客户端可以访问该共享存储
[root@vh01 ~]# targetcli
/>/iscsi/iqn.2018-06.cn.tedu.nsd1802/tpg1/acls create iqn.2018-06.cn.tedu.vh03/ //加一个客户端可以访问该共享存储
> saveconfig //保存
[root@vh03 ~]# systemctl restart target
3)配置vh03为客户端,使用vh01的共享存储
[root@vh03 ~]# vim /etc/iscsi/initiatorname.iscsi
InitiatorName=iqn.2018-05.cn.tedu.vh03
4)发现储存
[root@vh03 ~]# iscsiadm --mode discoverydb --type sendtargets --portal 192.168.4.1 --discover // 发现存储
192.168.4.1:3260,1 iqn.2018-06.cn.tedu.nsd1802
5)查看储存
[root@vh03 ~]# systemctl restart iscsi //重启iscsi即可自动login
[root@vh03 ~]# lsblk //发现多出来了sda设备
6)重起服务
[root@vh03 ~]# systemctl enable iscsi // 用于自动login
[root@vh03 ~]# systemctl enable iscsid // iscsid服务
7)在vh03上配置mariadb
[root@vh03 ~]# yum -y install mariadb-server
[root@vh03 ~]# mount /dev/sda1 /var/lib/mysql/
[root@vh03 ~]# chown mysql:mysql /var/lib/mysql/
[root@vh03 ~]# systemctl restart mariadb
8)进入数据库,跟vh02创建的数据库资料一样
[root@vh03 ~]# mysql
MariaDB [tedu]> select * from nsd1802;
udev配置
基础知识
- Ø硬件设备也是文件,存储在/dev下,udev是用来动态管理硬件设备文件(u盘,iscsi硬盘)的
- 设备文件管理方法
• devfs
– Linux早期采用的静态管理方法
– /dev目录下有大量静态文件
– 内核版本2.6.13开始被完全取代
• udev
– 只有连到系统上来的设备才在/dev下创建设备文件
– 与主、次设备编号无关
– 为设备提供持久、一致的名字
- 接入设备事件链
• 内核发现设备并导入设备状态到sysfs
• udev接到事件通知
• udev创建设备节点或是运行指定程序
• udev通知hald守护进程
• HAL探测设备信息
• HAL创建设备对象结构
• HAL通过系统消息总线广播该事件
• 用户程序也可以监控该事件
- udev的作用
• 从内核收到添加/移除硬件事件时,udev将会分析:
– /sys目录下信息
– /etc/udev/rules.d目录中的规则
• 基于分析结果,udev会:
– 处理设备命名
– 决定要创建哪些设备文件或链接
– 决定如何设置属性
– 决定触发哪些事件
udev应用
- udev事件监控
[root@node4~]#udevadm monitor --property
monitor will print the received events for:
UDEV - the event which udev sends out aYer rule processing
KERNEL - the kernel uevent
KERNEL[1376971904.652851] add /module/e1000 (module)
UDEV[1376971904.653279] add /module/e1000 (module)
KERNEL[1376971905.065797] add /devices/
pci0000:00/0000:00:11.0/0000:02:01.0/net/eth0 (net)
- 配置udev
• 主配置文件/etc/udev/udev.conf
– udev_root:创建设备文件位置,默认为/dev
– udev_rules:udev规则文件位置,默认为/etc/udev/rules.d
– udev_log:syslog优先级,缺省为err
- udev:动态管理硬件文件的管理方法:
1.规则文件命名:数字-自定义名字.rules,数字编号是生效顺序
2.udev规则只有在硬件设备连接上或是取下的时候才生效
3.规则编写,判断是否满足条件用==或!= ,赋值用=
- 配置udev(续1)
• 文件位置及格式
– /etc/udev/rules.d/<rule_name>.rules
– 例:75-custom.rules
• 规则格式
– <match-key><op><value>[,...]<assignment-key><op>value[,...]
– BUS=="usb",SYSFS{serial}=="20043512321411d34721",NAME="udisk"
- 配置udev(续2)
• 操作符
– ==:表示匹配
– != :表示不匹配
• 匹配示例
– ACTION=="add"
– KERNEL=="sd[a-z]1"
– BUS=="scsi"
– DRIVER!="ide-cdrom"
– PROGRAM=="myapp.pl",RESULT=="test"
- udev操作符
• 操作符
– =:指定赋予的值
– +=:添加新值
– :=:指定值,且不允许被替换
• 示例
– NAME="udisk"
– SYMLINK+="data1"
– OWNER="student"
– MODE="0600"
- udev变量
• 可以简化或缩写规则
KERNEL=="sda*",SYMLINK+="iscsi%n"
• 常用替代变量
– %k:内核所识别出来的设备名,如sdb1
– %n:设备的内核编号,如sda3中的3
– %p:设备路径,如/sys/block/sdb/sdb1
– %%:%符号本身
udev案例分析
SUBSYSTEM=="block",ENV{DEVTYPE}
="disk",KERNEL=="sdb",ENV{ID_VENDOR}
=="TOSHIBA",SYMLINK="udisk",RUN+="/usr/bin/wall udisk plugged in”
SUBSYSTEM=="block",ACTION=="add",KERNEL=="sdb[0-9]",ENV{ID
_VENDOR_ID}=="0930",ENV{DEVTYPE}=="parMMon",NAME="udisk%n"
BUS=="scsi",SYSFS{serial}=="123456789",NAME="byLocaMon/
rack1-shelf2-disk3"
设置接入的U盘名字为/dev/udisk
1. 查看U盘在/sys/目录中的位置
[root@vh03 rules.d]# udevadm info --query=path --name=/dev/sda1
//等号后面不能有空格
/devices/platform/host2/session1/target2:0:0/2:0:0:0/block/sda/sda1
2.查看U盘信息
[root@vh03~]#udevadm info --query=all --attribute-walk --path=/devices/platform/host2/session1/target2:0:0/2:0:0:0/block/sda/sda1 //取硬件信息,,host2/session1/target2:0:0/2:0:0:0这的值是不固定的
3、创建规则
[root@vh03 ~]# cd /etc/udev/rules.d/
[root@vh03 rules.d]# ls
[root@vh03 rules.d]# vim 90-udisk.rules
ACTION=="add",KERNEL=="sd[a-z]*",SUBSYSTEMS=="scsi",SYMLINK+="udisk%n"
如果系统接入硬件,内核识别出来的名字是sd[a-z]*,并且是iscsi的总线,那么就给它加上一个链接叫udisk1/2/3
4、将U盘取下,再插上,查看新的名称
[root@vh03 rules.d]# systemctl stop mariadb
[root@vh03 rules.d]# umount /var/lib/mysql/
[root@vh03 rules.d]# iscsiadm --mode node --targetname iqn.2018-06.cn.tedu.nsd1802 --portal 192.168.4.1:3260 --logout
[root@vh03 rules.d]# iscsiadm --mode node --targetname iqn.2018-06.cn.tedu.nsd1802 --portal 192.168.2.5:3260 --logout
[root@vh03 rules.d]# iscsiadm --mode node --targetname iqn.2018-06.cn.tedu.nsd1802 --portal 192.168.4.1:3260 --login
[root@vh03 rules.d]# iscsiadm --mode node --targetname iqn.2018-06.cn.tedu.nsd1802 --portal 192.168.2.5:3260 --login
[root@vh03 rules.d]# systemctl start iscsi
[root@vh03 rules.d]# systemctl enable iscsi
[root@vh03 rules.d]# systemctl restart iscsi
[root@vh03 rules.d]# ls /dev/udisk*
/dev/udisk /dev/udisk1
案例:
Windows下将fat32分区,如g盘,改为ntfs: convert g: /fs:ntfs
网络文件系统:
CIFS:Common Internet FileSystem (SAMBA)
NFS:Network FileSystem
NFS
- 文件系统的类型:
本地文件系统
EXT3/4、SWAP、NTFS等 -------------- 本地磁盘
伪文件系统
/proc、/sys等 -------------- 内存空间
网络文件系统
NFS (Network File System) ------------- 网络存储空间
- NFS共享协议:
Unix/Linux最基本的文件共享机制
1980年由SUN公司开发
依赖于RPC(远程过程调用)映射机制
存取位于远程磁盘中的文档数据,对应用程序是透明的,就好像访问本地的文件一样
- NFS本身只提供了共享功能,底层数据传输需要使用RPC服务(rpcbind)
u 只读共享
1、vh01作为服务器
[root@vh01 ~]# yum install -y nfs-utils
[root@vh01 ~]# mkdir -pv /nfsroot/nfsro
[root@vh01 ~]# cp /etc/hosts /nfsroot/nfsro/
2、编辑共享输出,允许所有主机访问共享目录
[root@vh01 ~]# vim /etc/exports
/nfsroot/nfsro *(ro) //注意*和()之间不能有空格
3、起动相应服务并验证
[root@vh01 ~]# systemctl restart rpcbind //启用RPC机制
[root@vh01 ~]# systemctl restart nfs //启用nfs服务
[root@vh01 ~]# showmount -e 192.168.4.1 //服务器,客户端都可以查看
Export list for 192.168.4.1:
/nfsroot/nfsro *
4、在vh03上使用vh01提供的共享
[root@vh03 ~]# yum install -y nfs-utils
[root@vh03 ~]# mkdir /mnt/roshare
[root@vh03 ~]# showmount -e 192.168.4.1
[root@vh03 ~]# mount 192.168.4.1:/nfsroot/nfsro /mnt/roshare
[root@vh03 ~]# ls /mnt/roshare
Hosts
u 读写共享
注意:不管用的是nfs还是samba还是ftp,只要是读写,
都需要配置本地权限(如777)和配置文件内的权限
1、服务器端配置
[root@vh01 ~]# mkdir -m 777 /nfsroot/nfsrw
[root@vh01 ~]# vim /etc/exports // 追加一行
/nfsroot/nfsrw 192.168.4.*(rw,sync) // sync表示客户机服务器同步读写
[root@vh01 ~]# exportfs -rv 重新输出共享目录,不用重起服务
2、客户端配置
[root@vh03 ~]# mkdir /mnt/rwshare
[root@vh03 ~]# mount 192.168.4.1:/nfsroot/nfsrw /mnt/rwshare
[root@vh03 ~]# echo 'hello world' > /mnt/rwshare/hello.txt
3、客户端写入的文件属主属组是nfsnobody
[root@vh03 ~]# ll /mnt/rwshare/hello.txt
《如果希望文件的属主属组还是root,可以在服务器上修改选项如下:》
/nfsroot/nfsrw 192.168.4.*(rw,sync,no_root_squash)
Multipath多路径:防止单点故障
u 多路径概述
当服务器到某一存储设备有多条路径时,每条路径都会识别为一个单独的设备
多路径允许您将服务器节点和储存阵列间的多个I/O路径配置为一个单一设备
这些 I/O 路径是可包含独立电缆、交换器和控制器的实体 SAN 链接
多路径集合了 I/O 路径,并生成由这些集合路径组成的新设备
u 多路径主要功能
冗余:主备模式,高可用
改进的性能:主主模式,负载均衡
u 多路径设备
若没有 DM Multipath,从服务器节点到储存控制器的每一条路径都会被系统视为独立的设备,即使 I/O路径连接的是相同的服务器节点到相同的储存控制器也是如此
DM Multipath 提供了有逻辑的管理 I/O 路径的方法,即在基础设备顶端生成单一多路径设备
u 多路径设备识别符
每个多路径设备都有一个 WWID(全球识别符),它是全球唯一的、无法更改的号码
默认情况下会将多路径设备的名称设定为它的WWID
可以在多路径配置文件中设置user_friendly_names选项,该选项可将别名设为格式mpathn的节点唯一名称
1)配置网络
也可以自定义存储设备名称1、为vh01和vh03再配置一个网络
vh01.tedu.cn eth1 192.168.2.1/24
vh03.tedu.cn eth1 192.168.2.2/24
添加网卡:
# nmcli connection add con-name eth1 ifname eth1 type ethernet
2、在vh03上,通过192.168.2.1再发现一次设备,出现新的设备sdb
[root@vh03 ~]# iscsiadm --mode discoverydb --type sendtargets --portal 192.168.2.1 --discover
[root@vh03 ~]# systemctl restart iscsi
[root@vh03 ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 14G 0 disk
└─sda1 8:1 0 14G 0 part
sdb 8:16 0 14G 0 disk
└─sdb1 8:17 0 14G 0 part
sdc 8:32 0 14G 0 disk
└─sdc1 8:33 0 14G 0 part
sr0 11:0 1 1024M 0 rom
3、在vh03上安装多路径软件
[root@vh03 ~]# yum install -y device-mapper-multipath
4、生成配置文件,不用系统自动生成设备名,由管理员自己指定
[root@vh03 ~]# mpathconf --user_friendly_names n
//加n系统才会生成/etc/multipath.conf多路径配置文件
若无需编辑该配置文件,可使用此命令启动多路径守护程序
5、查看共享存储的wwid
[root@vh03 ~]# /lib/udev/scsi_id --whitelisted --device=/dev/sdb
36001405163c77c53b384b6a93ca7807b
[root@vh07 ~]# /lib/udev/scsi_id --whitelisted --device=/dev/sdc
36001405163c77c53b384b6a93ca7807b
因为两个设备虽然名称不一样,但是实际上是一个设备,所以他们的WWID是相同的
6、编写配置文件
[root@vh03 ~]# vim /etc/multipath.conf
23 defaults {
24 user_friendly_names no
25 find_multipaths yes
getuid_callout "/lib/udev/scsi_id --whitelisted --device=/dev/%n"
} // 获取WWID的方法
multipaths {
multipath {
wwid "36001405163c77c53b384b6a93ca7807b"
//与上边的wwid相匹配
alias "mpatha" //为多路径设备配置别名
}
}
7、起动服务并验证
[root@vh03 ~]# systemctl start multipathd
[root@vh03 ~]# ls /dev/mapper/mpath* /mpatha即为多路径设备
/dev/mapper/mpatha /dev/mapper/mpatha1
[root@vh03 rules.d]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 14G 0 disk
└─mpatha 253:2 0 14G 0 mpath
└─mpatha1 253:3 0 14G part
sdb 8:16 0 14G 0 disk
└─mpatha 253:2 0 14G 0 mpath
└─mpatha1 253:3 0 14G 0 part
8. 挂在到数据库下mariadb
[root@vh03 ~]# mount /dev/mapper/mpatha1 /var/lib/mysql/
[root@vh03 ~]# multipath -rr 查看多路径设备
May 18 08:43:32 | /etc/multipath.conf line 26, invalid keyword: getuid_callout
reload: mpatha (36001405163c77c53b384b6a93ca7807b) undef LIO-ORG ,iscsidisk
size=14G features='0' hwhandler='0' wp=undef
|-+- policy='service-time 0' prio=1 status=undef
| `- 2:0:0:0 sda 8:0 active ready running
`-+- policy='service-time 0' prio=1 status=undef
`- 3:0:0:0 sdb 8:16 active ready running
9. 查看多径信息
[root@vh03 ~]# multipath -ll
May 18 08:44:59 | /etc/multipath.conf line 26, invalid keyword: getuid_callout
mpatha (36001405163c77c53b384b6a93ca7807b) dm-2 LIO-ORG ,iscsidisk
size=14G features='0' hwhandler='0' wp=rw
|-+- policy='service-time 0' prio=1 status=active
| `- 2:0:0:0 sda 8:0 active ready running
`-+- policy='service-time 0' prio=1 status=enabled
`- 3:0:0:0 sdb 8:16 active ready running
*************************************************************************
常见故障案例
【客户端检测不到磁盘】
问题现象:
iSCSI客户端可以发现target
登陆之后,本地并没有出现新的磁盘设备
故障分析及排除
原因分析:
target端没有出现LUN1
对target端进行修改,重启服务后,target没有LUN1
解决办法:
只能重启操作系统
【NFS无法写入数据】
问题现象:
NFS服务器端已配置共享输出目录为读写权限
客户端可以正常挂载服务器的输出目录
客户端向服务器输出目录写入数据失败
*******************************************************************************
iSCSI集群与存储的更多相关文章
- LVS 集群与存储《路由转发》
LVS 集群与存储<路由转发> 集群简介 u 什么是集群 • 一组通过高 ...
- 使用Spring Data ElasticSearch+Jsoup操作集群数据存储
使用Spring Data ElasticSearch+Jsoup操作集群数据存储 1.使用Jsoup爬取京东商城的商品数据 1)获取商品名称.价格以及商品地址,并封装为一个Product对象,代码截 ...
- Ceph 存储集群 - 搭建存储集群
目录 一.准备机器 二.ceph节点安装 三.搭建集群 四.扩展集群(扩容) 一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4 ...
- 部署prometheus监控kubernetes集群并存储到ceph
简介 Prometheus 最初是 SoundCloud 构建的开源系统监控和报警工具,是一个独立的开源项目,于2016年加入了 CNCF 基金会,作为继 Kubernetes 之后的第二个托管项目. ...
- Kubernetes 搭建 ES 集群(存储使用 cephfs)
一.集群规划 使用 cephfs 实现分布式存储和数据持久化 ES 集群的 master 节点至少需要三个,防止脑裂. 由于 master 在配置过程中需要保证主机名固定和唯一,所以搭建 master ...
- Kubernetes 搭建 ES 集群(存储使用 local pv)
一.集群规划 由于当前环境中没有分布式存储,所以只能使用本地 PV 的方式来实现数据持久化. ES 集群的 master 节点至少需要三个,防止脑裂. 由于 master 在配置过程中需要保证主机名固 ...
- Ceph 存储集群 - 搭建存储集群---教程走到osd激活这一步执行不下去了,报错
目录 一.准备机器 [1. 修改主机名](所有节点)(https://www.cnblogs.com/zengzhihua/p/9829472.html#1-修改主机名) [2. 修改hosts文件] ...
- Java连接redis集群操作存储、删除以及获取值
pom文件添加: <!-- https://mvnrepository.com/artifact/redis.clients/jedis --> <dependency> &l ...
- 在NAS设备上用NFS服务为RAC数据库和集群件存储oracle文件时的mount选项
今天在家折腾自己的小实验室,把自己NAS上的一个目录用NFS挂载到一套11g RAC的实验环境中. 当我在备份数据库到NAS上时,发现一个奇怪的问题,同样的目录下,默认backup 备份集的情况,备份 ...
随机推荐
- 结题报告--P2441角色属性树
题目:点此 题目描述 绪萌同人社是一个有趣的组织,该组织结构是一个树形结构.有一个社长,直接下属一些副社长.每个副社长又直接下属一些部长……. 每个成员都有一个萌点的属性,萌点属性是由一些质数的萌元素 ...
- MySQL中常用转换函数介绍
Cast函数:CONVERT函数. 用法:CAST(expr AS type), CONVERT(expr,type) , CONVERT(expr USING transcoding_name). ...
- 5G 将带给程序员哪些新机会呢?
5G,第 5 代移动通信技术,华为在此领域远远领先同行,这也让它成了中美贸易战的最前线.我的第一份工作就在通信行业,当时电信标准都在欧美企业手里,国内企业主要是遵照标准研发软硬件设备,核心芯片靠进口. ...
- [vue/require-v-for-key] Elements in iteration expect to have 'v-bind:key' directives.
使用VScode开发vue中,v-for在Eslint的规则检查下出现报错:如下Elements in iteration expect to have ‘v-bind:key’ directives ...
- flask连接数据库的URI书写格式
1. MySQL mysql://username:password@hostname/database 2. PostgreSQL postgresql://username:password@ho ...
- (转)协议森林05 我尽力 (IP协议详解)
协议森林05 我尽力 (IP协议详解) 作者:Vamei 出处:http://www.cnblogs.com/vamei 欢迎转载,也请保留这段声明.谢谢! IPv4与IPv6头部的对比 我们已经在I ...
- ret.data[0]._highlight = true iview table表格高亮
ret.data[0]._highlight = true iview table表格高亮
- 对象数组化 Object.values(this.totalValueObj).forEach(value => {
对象数组化 Object.values(this.totalValueObj).forEach(value => {
- Google Sign In
我们平常也经常使用QQ,微信账号,登录其他应用.最近公司让我给网站添加一个谷歌账号登录.我来这里记录一下,莫怪~~~莫怪~~~ 1. 申请一个账号登录ID: https://developers.g ...
- kerberos系列之kerberos安装
最近搞了一下kerberos,准备写一个系列,介绍kerberos的安装,和常用组件kerberos配置,今天进入第一篇:kerberOS安装 具体kerberos是什么东西,大家可以百度查一下,这里 ...