1  调高osd的日志等级

加上红框那一行就可以了

osd的日志路径:/var/log/ceph/ceph-osd.3.log

注意:加上了这一行后日志会刷很多,所以要特别注意日志容量的变化,以防把var目录写满了

缺少osdmap或者错误的osdmap

从osd日志中发现这两种错误都是属于osdmap不正常,可以从其它正常osd上拷贝osdmap到对应启动错误的osd上,假设不正常的osdmap序号是816,上图的是27601和671651

如以下图:

在一个正常osd上如osd.4上用find命令查找816的osdmap

接着用scp命令将对应的文件拷贝到对应的启动错误的osd对应的目录下

3  修复leveldb文件

这种错误属于缺少omap的sst文件,可尝试用leveldb自带的修复工具来修复

安装leveldb模块:

yum install epel-release -y

yum install python-pip python-devel gcc gcc-c++ -y

pip install --upgrade pip

pip install leveldb

注意:用pip命令时可能出现这样的超时错误,如果出现则重新执行pip命令即可

修复命令执行(假设是修复osd.0):

按下图红框所示执行:

修复完后可查看下修复的目录下是否有多出来的ldb后缀的文件,如果有则通过mv改名将后缀改为sst

mv  /var/lib/ceph/osd/ceph-0/current/omap/000009.ldb  /var/lib/ceph/osd/ceph-0/current/omap/000009.sst

改文件名后再重启该osd.0看看。

如果会报下面这样的错,则像第2点一样的步骤拷贝对应的osdmap过来然后重新启动

4  元数据校验错误

该错误是由于遍历加载pg的omap时出错导致osd起不来,如上图的报错是1.13这个pg报错导致的,如果只是单个pg有问题,在其它osd上有存储,那大可去除该pg,但我们遇到的在客户那里的情况是每个pg都有问题,那就感觉不是某个pg的问题了,是一个osd的共性问题,很有可能是leveldb的问题,但用leveldb修复却不能修复好,还未有解决方法

5  Inconsistent的pg

有这种pg出现在ceph -s命令的输出中应该可以看到有类似1 pgs inconsistent这样的描述,使用命令:

ceph health detail | grep inconsistent

找出inconsistent的pg,比如是pg 1.1

一般情况下使用以下命令即可修复不一致的pg:

ceph pg repair 1.1

执行完后等待一段时间可能会自动修复好

如果一段时间后也没修复好,则可以尝试再执行一遍,如果还没修复好则需要找出不一致的object来处理了

首先从osd的日志里找到inconsistent的obj

列出该object:

如果是3副本,则可以通过md5计算下哪个是不一致的,从而删除掉该object让其同步另外两个的即可,但这里的错误其实并不是object文件内容上的不一致,而是缺少object文件的一些文件属性,查看正常的:

异常的则没有红框里的属性且用object-ceph-tool查看时会报这样的错:

可以将正常的object拷贝覆盖异常的object:

注意:这里要用rsync来拷贝,这样文件属性也才能拷贝过去

6  pg down的处理

可先通过ceph pg query x.x来看某pg的情况,翻到最后面的recover项会有说明该pg为什么down且建议你如何恢复的说明

pg down的意思是含有最新数据pg的对应的osd没起来,最简单的做法就是将该osd拉起来,但如果该osd实在拉不起来且已经把它移出集群了,则可以告诉集群那个主pg的osd已经丢失了,让其它副本的pg作为主osd,比如osd.5已经起不来了则:

ceph osd lost 5 --yes-i-really-mean-it

当然这样也意味着主pg上有一些数据副pg是没有的,可能会有一些数据丢失,如果想要保险,则可以通过object-ceph-tool工具将pg从挂掉的那个osd上先导出来,然后再通过该工具导入到正常的有该副本的osd上即可

注意:如果确实想把某osd标记为lost,则应该那个osd从osd crush中remove出去才有效

7  Journal问题

由日志可比较明显的看出是在加载journal数据的时候crash了,可以通过给osd替换journal的方式来恢复osd,但这样做也就意味到需要丢弃掉journal里的数据

恢复方法(以osd.0为例):

(1)停止服务

/etc/init.d/ceph  stop  osd.0

(2)替换journal

# 这行--flush-journal很有可能报错,因为本身就是因journal而crash的,报错可以不用管它,继续下一条命令

ceph-osd  -i  0  --flush-journal

rm  -rf  /var/lib/ceph/osd/ceph-0/journal

touch  /var/lib/ceph/osd/ceph-0/journal

ceph-osd  -i  0 --mkjournal

(3)启动服务

/etc/init.d/ceph  start  osd.0

8  终极恢复方法

假设很不幸,你的osd挂了很多,横跨了多个故障域,超出了你的副本数设置,通过数据均衡方式已经恢复不了你的数据了,则可以尝试使用这种方法,它就算你的全部osd挂掉也能恢复,但前提是你的osd能够挂载并能访问到osd的current目录里面的object数据文件,且存储引擎用的是filestore

该方法的原理是通过将一个rbd的所有object收集起来重新拼接成一个raw格式的文件,然后可将该文件导入到虚拟存储中重新成为一个rbd

脚本文件下载地址:https://github.com/luohaixiannz/ceph-recovery-master

情景假设:

假设虚拟存储中一共有3个osd,osd.0、osd.1和osd.2

使用方法:

(1)找一个空间大一点的目录,需要比ceph df中显示的容量要大

比如这里显示的是103M,则我们选的目录的存放的空间应该大于这个容量的2倍以上,因为我们拼接后输出的文件也存放到该目录下

解压脚本文件到该目录

(2)创建目录

cd  ceph-recovery-master

mkdir  outputs

mkdir  osds

cd  osds

mkdir  osd0  osd1  osd2

cd  ..

通过scp的方式将3个osd的current目录拷贝到对应的刚刚创建的osd目录下,比如osd0的(其它节点上的则用scp):

cp  -r  /var/lib/ceph/osd/ceph-0/current  ceph-recovery-master/osds/osd0/

(3)运行脚本

a. 收集osd里的object数据

执行命令:

./collect_files.sh osds

b. 查找要恢复的rbd

找虚拟机的系统盘可按如下图的命令找对应关系:

如果是找数据盘的则按如下图的命令找对应关系:

如果是镜像的则:

上面列举了我们知道名字如何找到对应的uuid,这个uuid是用来下一步恢复rbd时使用

c. 恢复rbd为一个raw的文件

比如我们想恢复testooo这个虚拟机的系统盘,则按上图那些操作我们可以得知它对应的uuid是a4f0234a-e900-4d3c-a684-4d9fe4d1abc3

则执行如下命令:

获取到这个虚拟机系统盘对应的rbd的uuid

执行命令恢复这个rbd为一个raw格式的文件:

这里解释下该命令传递的参数含义:

(1)那个disk.id那一串就是我们上面找的rbd对应的uuid

(2)参数2表示2M,以M为单位,代表的含义是这个rbd的object是定义为2M的,这个可以通过rbd info pool_name/rbdname里可以看到

(3)参数5表示该磁盘的大小,以G为单位

命令执行完成后,脚本会将拼接后的raw文件放在outputs目录下:

d. 验证rbd是否正常

如果你当前的ceph环境是异常的,则很明显你不能用当前ceph环境来验证,可以通过其它ceph环境来验证该raw文件是否是正常的。

ceph环境下的验证方法,先导入该raw文件为一个rbd

查看是否导入进去了:

然后新创建一个虚拟机,然后找到它的rbd名字,然后通过rbd rename的方式交换两个rbd,然后开启这个虚拟机看是否正常即可

数据盘的方式也是用替换rbd的方式来验证的

上面说的是用ceph环境来验证到处的rbd是否是正常的,如果当前ceph不可用则可用本地存储来验证,本地存储使用的磁盘格式是qcow2的,所以我们先要将raw格式的磁盘转换为qcow2格式的:

然后新建一个本地虚拟机,用转换出来的qcow2文件替换掉它的qcow2文件,然后开启虚拟机检查下磁盘是否是正常的

6  pg down的处理

Ceph osd故障恢复的更多相关文章

  1. Ceph osd启动报错osd init failed (36) File name too long

    在Ceph的osd节点上,启动osd进程失败,查看其日志/var/log/ceph/ceph-osd.{osd-index}.log日志,报错如下: 2017-02-14 16:26:13.55853 ...

  2. ceph osd 自动挂载的N种情况

    直接上干货: ceph自动挂载原理 系统启动后,ceph 通过扫描所有磁盘及分区的 ID_PART_ENTRY_TYPE 与自己main.py中写死的osd ready 标识符来判断磁盘(及其分区)是 ...

  3. 分布式存储ceph——(5)ceph osd故障硬盘更换

    正常状态:

  4. ceph osd 批量删除

    ceph osd 批量删除,注意删除的是当前节点正在使用的osd,数据删除有风险,所以最后一步没有去format磁盘,给你留下一剂后悔药. #!/bin/bash osd_list=`mount|gr ...

  5. Ceph osd故障硬盘更换

    正常状态: 故障状态: 实施更换步骤: (1)关闭ceph集群数据迁移: osd硬盘故障,状态变为down.在经过mod osd down out interval 设定的时间间隔后,ceph将其标记 ...

  6. ceph osd tree的可视化

    前言 很久没有处理很大的集群,在接触一个新集群的时候,如果集群足够大,需要比较长的时间才能去理解这个集群的结构,而直接去看ceph osd tree的结果,当然是可以的,这里是把osd tree的结构 ...

  7. parted会启动你的ceph osd,意外不?

    前言 如果看到标题,你是不是第一眼觉得写错了,这个怎么可能,完全就是两个不相关的东西,最开始我也是这么想的,直到我发现真的是这样的时候,也是很意外,还是弄清楚下比较好,不然在某个操作下,也许就会出现意 ...

  8. 怎样禁止Ceph OSD的自动挂载

    前言 本篇来源于群里一个人的问题,有没有办法让ceph的磁盘不自动挂载,一般人的问题都是怎样让ceph能够自动挂载,在centos 7 平台下 ceph jewel版本以后都是有自动挂载的处理的,这个 ...

  9. 如何测量Ceph OSD内存占用

    前言 这个工具我第一次看到是在填坑群里面看到,是由研发-北京-蓝星同学分享的,看到比较有趣,就写一篇相关的记录下用法 火焰图里面也可以定位内存方面的问题,那个是通过一段时间的统计,以一个汇总的方式来查 ...

随机推荐

  1. 原子类 Atomic

    @Testpublic void testAtomicBoolean() { AtomicBoolean atomicBoolean = new AtomicBoolean(); boolean b ...

  2. 转 C# 使用openssl

    //先用大整数来生成一个1024bit的密钥对 RSA rsa = new RSA(); BigNumber number = OpenSSL.Core.Random.Next(10, 10, 1); ...

  3. 5_PHP数组_3_数组处理函数及其应用_5_数组遍历语言结构

    以下为学习孔祥盛主编的<PHP编程基础与实例教程>(第二版)所做的笔记. 数组遍历语言结构 1. foreach ( array as $value ) 程序: <?php $int ...

  4. css选择符优先级

  5. day26-python之封装

    1.动态导入模块 # module_t=__import__('m1.t') # print(module_t) # module_t = __import__('m1.t') # print(mod ...

  6. SIM800A 建立网络

    SIM800A是一款两频GSM/GPRS模块,为SMT封装.其性能稳定,外观小巧,性价比高 可以低功耗实现语音.SMS和数据信息的传输 数据传输 GPRS class 12:最大85.6 kbps(下 ...

  7. hybris commerce storefront的产品搜索功能

    在Hybris Commerce Cloud的storefront的搜索栏键入一些字母,每次键入,会触发一个发送到后台的http请求实现live search的功能: http url如下:https ...

  8. JDBC中PreparedStatement相比Statement的好处

    Statement对象: 用于执行不带参数的简单SQL语句: 特点: a. 只执行单条的sql语句: b. 只能执行不带参数的sql语句: c.运行原理的角度,数据库接收到sql语句后需要对该条sql ...

  9. AE二次开发,解决子窗体使用父窗体的AxControl控件

    在子窗体写构造函数,然后再在父窗体按钮点击事件下写 public frmIDW(AxMapControl axMapControl1) { InitializeComponent(); this.ax ...

  10. M - Ordering Tasks(拓扑排序)

    M - Ordering Tasks Time Limit:3000MS     Memory Limit:0KB     64bit IO Format:%lld & %llu Descri ...