1.确保ceph集群是连通状态

这里,可以先把机器配置为以前的x.x.x.x的网络,确保ceph集群是可以通的。这里可以执行下面的命令查看是否连通,显示HEALTH_OK则表示连通

2.获取monmap,并查看

[root@k8s-node1 ~]# mkdir ceph-tmp
[root@k8s-node1 ~]# cd ceph-tmp/
[root@k8s-node1 ceph-tmp]# ceph mon getmap -o map
[root@k8s-node1 ceph-tmp]# monmaptool --print map

3.删除旧的map配置,新增配置到map

[root@k8s-node1 ceph-tmp]#monmaptool --rm k8s-node1 map
#下面的IP表示要替换的ceph集群的IP,端口号不变
[root@k8s-node1 ceph-tmp]#monmaptool --add k8s-node1 10.0.2.21:6789 map
[root@k8s-node1 ceph-tmp]#monmaptool --print map

4.修改/etc/ceph/ceph.conf文件

#把配置文件的mon_host的ip更改为要替换的ceph集群的IP
[root@k8s-node1 ~]# vi /etc/ceph/ceph.conf
[global]
fsid = 1b47d6b8-d96a-49d0-b31d-32e6510edc25
mon_initial_members = node1
mon_host = 192.168.1.205
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx

5.停止mon进程

[root@k8s-node1 ~]#systemctl stop ceph-mon.target

6.载入新的monmap

[root@k8s-node1 ~]#cd ceph-tmp/
[root@k8s-node1 ~]#ceph-mon -i k8s-node1 --inject-monmap map

7.重启服务

[root@k8s-node1 ~]#systemctl restart ceph-mon.target
[root@k8s-node1 ~]#systemctl restart ceph-osd.target

8.将网卡配置为要更换的IP,查看集群状态是否正常

[root@k8s-node1 ~]# ceph -s
cluster:
id: 1b47d6b8-d96a-49d0-b31d-32e6510edc25
health: HEALTH_OK services:
mon: 1 daemons, quorum node1
mgr: node1(active)
osd: 1 osds: 1 up, 1 in data:
pools: 1 pools, 64 pgs
objects: 505 objects, 1.24GiB
usage: 2.22GiB used, 929GiB / 931GiB avail
pgs: 64 active+clean

Ceph集群更换public_network网络的更多相关文章

  1. 使用虚拟机CentOS7部署CEPH集群

    第1章   CEPH部署 1.1  简单介绍 Ceph的部署模式下主要包含以下几个类型的节点 Ø CephOSDs: A Ceph OSD 进程主要用来存储数据,处理数据的replication,恢复 ...

  2. 配置Ceph集群为OpenStack后端存储

    配置Ceph存储为OpenStack的后端存储 1  前期配置 Ceph官网提供的配置Ceph块存储为OpenStack后端存储的文档说明链接地址:http://docs.ceph.com/docs/ ...

  3. CentOS 7 搭建 Ceph 集群(nautilus 版本)

    搭建 Ceph 分布式集群( nautilus 版本 ) 一.服务器环境说明 主机名 角色 IP地址 ceph-admin ceph-deploy 192.168.92.21 ceph-node1 m ...

  4. CEPH集群操作入门--配置

      参考文档:CEPH官网集群操作文档   概述 Ceph存储集群是所有Ceph部署的基础. 基于RADOS,Ceph存储集群由两种类型的守护进程组成:Ceph OSD守护进程(OSD)将数据作为对象 ...

  5. Ceph 集群整体迁移方案(转)

    场景介绍:在我们的IDC中,存在着运行了3-6年的Ceph集群的服务器,这些服务器性能和容量等都已经无法满足当前业务的需求,在购入一批高性能机器后,希望将旧机器上的集群整体迁移到新机器上,当然,是保证 ...

  6. 分布式存储ceph集群实践

    1.环境规划,三台主机 10.213.14.51/24            10.213.14.52/24       10.213.14.53/24    集群网络 172.140.140.11. ...

  7. ceph 集群快速部署

    1.三台Centos7的主机 [root@ceph-1 ~]# cat /etc/redhat-release CentOS Linux release 7.2.1511 (Core)    2.主机 ...

  8. ceph-deploy离线部署ceph集群及报错解决FAQ

    ceph-deploy部署ceph集群 环境介绍 主机名 ip地址 操作系统 角色 备注 ceph-node1 10.153.204.13 Centos7.6 mon.osd.mds.mgr.rgw. ...

  9. 分布式存储系统之Ceph集群部署

    前文我们了解了Ceph的基础架构和相关组件的介绍,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16720234.html:今天我们来部署一个ceph集群: 部 ...

随机推荐

  1. 举例理解JDK动态代理

    JDK动态代理 说到java自带的动态代理api,肯定离不开反射.JDK的Proxy类实现动态代理最核心的方法: public static Object newProxyInstance(Class ...

  2. vitual dom实现(转)

    1. 通过JavaScript来构建虚拟的DOM树结构,并将其呈现到页面中: 2. 当数据改变,引起DOM树结构发生改变,从而生成一颗新的虚拟DOM树,将其与之前的DOM对比,将变化部分应用到真实的D ...

  3. Pytest(一)

    1.在命令行运行 2.在pytest框架中,有如下约束: 所有的单测文件名都需要满足test_*.py格式或*_test.py格式. 在单测文件中,可以包含test_开头的函数,也可以包含Test开头 ...

  4. Nginx 常用配置

    Nginx的负载均衡方式 1.轮询(默认) 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除. 2.weight 指定轮询几率,weight和访问比率成正比,用于后端 ...

  5. Linux之redis-cluster(集群配置)

    redis-cluster配置   为什么要用redis-cluster 1.并发问题 redis官方声称可以达到 10万/每秒,每秒执行10万条命令假如业务需要每秒100万的命令执行呢? 2.数据量 ...

  6. Linux之nginx入门

    nginx入门 详见可参考:https://www.cnblogs.com/tiger666/p/10239307.html?tdsourcetag=s_pctim_aiomsg 1. 常用的WEB框 ...

  7. Vue+Element-ui+DateTimePicker 日期时间选择器传值给后台

                废话不多说,看代码: <template> <div class="block"> <span class="dem ...

  8. C/C++与C#之间类型的对应

    最近在研究pos打印机相关功能, 调用winapi以及跨进程通信等,都涉及到类型之间的转换. C/C++ C# HANDLE, LPDWORD, LPVOID, void* IntPtr LPCTST ...

  9. PHP类的反射和依赖注入

    /** * Class Point */ class Point { public $x; public $y; /** * Point constructor. * @param int $x ho ...

  10. jquery 浮动 固定显示

    <%@ page contentType="text/html;charset=UTF-8" language="java" %>无标题文档 我爱b ...