rbd无法map(rbd feature disable)】的更多相关文章

在jewel版本下默认开启了rbd的一些属性 [root@lab8106 ~]# ceph --show-config|grep rbd|grep features rbd_default_features = 61 RBD属性表: 61的意思是上面图中的bit码相加得到的值 对rbd进行内核的map操作 [root@lab8106 ~]# rbd map mytest rbd: sysfs write failed RBD image feature set mismatch. You can…
测试信息如下: [root@ceph_1 ~]# ceph osd pool lsrbdchy_123swimmingpool #新建rbd 块: rbd create swimmingpool/bar  --size 10G --image-format 2 #查看块信息: rbd ls #将rbd 块映射到主机: rbd map  swimmingpool/bar #报错内容如下 rbd: sysfs write failed RBD image feature set mismatch.…
版本 [root@clienta ~]# ceph -v ceph version 16.2.0-117.el8cp (0e34bb74700060ebfaa22d99b7d2cdc037b28a57) pacific (stable) [root@clienta ~]# rbd高级特性 创建一个块 [root@clienta ~]# ceph osd pool create rbd pool 'rbd' created [root@clienta ~]# rbd pool init rbd […
Ceph采用的是强一致性同步模型,所有副本都必须完成写操作才算一次写入成功,这就导致不能很好地支持跨域部署,因为如果副本在异地,网络延迟就会很大,拖垮整个集群的写性能.因此,Ceph集群很少有跨域部署的,也就缺乏异地容灾.Ceph RBD mirror是Ceph Jewel版本引入的新功能,支持两个Ceph集群数据同步,其原理非常类似mysql的主从同步机制,前者基于journaling,后者基于binlog,二者都是基于日志回放完成主从同步的. 1.1.    RBD mirror的原理 ce…
故障现象 使用nova volume-attach <server> <volume>命令挂载卷,命令没有返回错误,但是查看虚拟机状态,卷并没有挂载上. 故障原因 疑似虚拟机长时间运行(超过1年)后,libvirt无法执行live attach操作. 处理方法 将虚拟机关机,在关机状态下挂载卷,然后启动虚拟机. 排查过程 由于没有nova命令没有报错,基本确定问题出在计算节点,直接到计算节点查看日志,发现如下异常: 2018-06-05 13:40:32.337 160589 DE…
Ceph块设备 来自这里. 块是一个字节序列(例如,一个512字节的数据块).基于块的存储接口是最常见的存储数据的方法,它通常基于旋转介质,像硬盘.CD.软盘,甚至传统的9道磁带. 基本的块设备命令 rbd命令可以让你创建.罗列.审查和删除块设备image.你也可以用它来克隆image.创建快照.回滚快照.查看快照等.关于rbd命令使用细节,可查看RBD - Manage RADOS Block Device(RBD) Images来了解详情. 创建块设备资源池 在管理节点,使用ceph工具创建…
ceph 寻址过程 1. file --- object映射, 把file分割成N个相同的对象 2. object - PG 映射, 利用静态hash得到objectID的伪随机值,在 "位与" mask 上使得object获取属于自己的PG 3. pg -- osd 映射, 将pg映射到实际的存储单元osd, RADOS 利用 crush 算法, 由pgid得到一组n个osd,再由osd daemon 执行映射到本地的object在本地系统中存储,访问,数据维护, 此次映射功能直接受…
创建了一个rbd镜像 $ rbd create --size 4096 docker_test 然后,在Ceph client端将该rbd镜像映射为本地设备时出错. $ rbd map docker_test --name client.admin rbd: sysfs write failed RBD image feature set mismatch. You can disable features unsupported by the kernel with "rbd feature…
前言 本文搭建了一个由三节点(master.slave1.slave2)构成的ceph分布式集群,并通过示例使用ceph块存储. 本文集群三个节点基于三台虚拟机进行搭建,节点安装的操作系统为Centos7(yum源),ceph版本选取为12.2.1.作者也是一位初学者,其间遇到了很多问题,故希望通过该博客让读者避免. 其中本文为快速搭建过程,先在一台虚拟机上完成大部分的ceph搭建的预检过程,之后将虚拟机复制为3个虚拟机,构成集群节点.所以建议读者按照本文步骤进行搭建,不要直接创建三个虚拟机,造…
1. 创建pool 创建存储池: ceph osd pool create {pool-name} {pg-num} [{pgp-num}] [replicated] [crush-ruleset-name] [expected-num-objects]删除存储池: ceph osd pool delete {pool-name} [{pool-name} --yes-i-really-really-mean-it]重命名存储池: ceph osd pool rename {current-po…