ceph-deploy 工具是一种部署 Ceph 的方法,它只依赖到服务器的 SSH 访问、 sudo 和 Python 。它可在你的工作站上运行,不需要服务器、数据库、或其它工具。如果你安装、拆卸过很多 Ceph 集群,不想要额外的工具,那 ceph-deploy 是理想之选。它不是个通用部署系统,只为 Ceph 用户设计,用它可以快速地设置并运行一个默认值较合理的集群,而无需头疼 Chef 、 Puppet 或 Juju 的安装。如果您想全面控制安全设置、分区、或目录位置,可以试试类似 Juju 、 Chef 、 Crowbar 的工具。

ceph-deploy 你可以自己开发脚本往远程主机上安装 Ceph 软件包、创建集群、增加监视器、收集(或销毁)密钥、增加 OSD 和元数据服务器、配置管理主机,甚至拆除集群。

一、创建一集群

使用 ceph-deploy 的第一步就是新建一个集群,新集群具备:

一个 Ceph 配置文件,以及
一个监视器密钥环

Ceph 配置文件至少要包含:

它自己的文件系统 ID ( fsid )
最初的监视器(们)及其主机名(们),以及
最初的监视器及其 IP 地址

用法

要用 ceph-deploy 创建集群,用 new 命令、并指定几个主机作为初始监视器法定人数。

ceph-deploy new {host [host], ...}

例如:

ceph-deploy new mon1.foo.com
ceph-deploy ,,}

ceph-deploy 工具会用 DNS 把主机名解析为 IP 地址。监视器将被命名为域名的第一段(如前述的 mon1 ),它会把指定主机名加入 Ceph 配置文件。其他用法见:

ceph-deploy new -h

命名集群

Ceph 集群的默认名字为 ceph ,如果你想在同一套硬件上运行多套集群可以指定其他名字。比如,如果想优化一个集群用于块设备,另一个用作网关,你可以在同一套硬件上运行两个不同的集群,但是它们要配置不同的 fsid 和集群名。

ceph-deploy –cluster {cluster-name} new {host [host], ...}

例如:

ceph-deploy --cluster rbdcluster new ceph-mon1
ceph-deploy --cluster rbdcluster ,,}

注意:如果你运行多个集群,必须修改默认端口选项并为其打开端口,这样两个不同的集群网才不会相互冲突。

二、增加/删除监视器

ceph-deploy 增加和删除监视器很简单,只要一个命令就可以增加或删除一或多个监视器。以前,增加和删除监视器涉及数个手动步骤。用 ceph-deploy 也预示着一个局限性,你只能在一主机上安装一个监视器。

注意:我们不建议把监视器和 OSD 置于同一主机上。

考虑到高可用性,生产集群应该至少有 3 个监视器。 Ceph 用 Paxos 算法,要求法定人数里的大多数达成一致。你可以只用一个监视器形成法定人数,然而你不能用两个监视器确定大多数。大多数监视器的比例必须像: 1:1 、 2:3 、 3:4 、 3:5 、 4:6 等等。

增加一监视器

创建集群并在监视器主机上安装 Ceph 软件包后,接着部署监视器。用 ceph-deploy 时,它限制一主机只能装一个监视器。

ceph-deploy mon create {host-name [host-name]...}

注意:

1.确保你增加的监视器能在大多数成员中达成一致,否则其它步骤(像 ceph-deploy gatherkeys )可能会失败

2.在一主机上新增监视器时,如果它不是由 ceph-deploy new 命令所定义的,那就必须把 public network 加入 ceph.conf 配置文件

删除一监视器

如果你想删除集群中的某个监视器,可以用 destroy 选项

ceph-deploy mon destroy {host-name [host-name]...}

注意:确保你删除一监视器后,其余监视器仍能达成一致。如果不可能,删除它之前先加一个

三、密钥管理

收集密钥

在准备一台主机作为 OSD 或元数据服务器时,你得收集监视器、 OSD 、和 MDS 的初始密钥环,可用下列命令

ceph-deploy gatherkeys {monitor-host}

注意:

1.检索密钥时,指定一个包含 Ceph 监视器的主机

2.如果建设集群时配置了多个监视器,需确保它们都已启动且在运行。如果监视器没能形成法定人数, ceph-create-keys 就会失败、且不会生成密钥。

销毁密钥

不再使用 ceph-deploy (或另建一集群)时,你应该删除管理主机上、本地目录中的密钥。可用下列命令:

ceph-deploy forgetkeys

四、增加/删除 OSD

新增和拆除 Ceph 的 OSD 进程相比其它两种要多几步。 OSD 守护进程把数据写入磁盘和日志,所以你得相应地提供一 OSD 数据盘和日志分区路径(这是最常见的配置,但你可以按需调整)。

从 Ceph v0.60 起, Ceph 支持 dm-crypt 加密的硬盘,在准备 OSD 时你可以用 --dm-crypt 参数告诉 ceph-deploy 你想用加密功能。也可以用 --dmcrypt-key-dir 参数指定 dm-crypt 加密密钥的位置。

在投建一个大型集群前,你应该测试各种驱动器配置来衡量其吞吐量。

列举磁盘

执行下列命令列举一节点上的磁盘:

ceph-deploy disk list {node-name [node-name]...}

擦净磁盘

用下列命令擦净(删除分区表)磁盘,以用于 Ceph :

ceph-deploy disk zap {osd-server-name}:{disk-name}
ceph-deploy disk zap osdserver1:sdb

注意:这会删除所有数据

准备 OSD

创建集群、安装 Ceph 软件包、收集密钥完成后你就可以准备 OSD 并把它们部署到 OSD 节点了。

ceph-deploy osd prepare {node-name}:{data-disk}[:{journal-disk}]
ceph-deploy osd prepare osdserver1:sdb:/dev/ssd
ceph-deploy osd prepare osdserver1:sdc:/dev/ssd

prepare 命令只准备 OSD 。在大多数操作系统中,硬盘分区创建后,不用 activate 命令也会自动执行 activate 阶段(通过 Ceph 的 udev 规则)。

前例假定一个硬盘只会用于一个 OSD 守护进程,以及一个到 SSD 日志分区的路径。我们建议把日志存储于另外的驱动器以最优化性能;你也可以指定一单独的驱动器用于日志(也许比较昂贵)、或者把日志放到 OSD 数据盘(不建议,因为它有损性能)。

注意:在一个节点运行多个 OSD 守护进程、且多个 OSD 守护进程共享一个日志分区时,你应该考虑整个节点的最小 CRUSH 故障域,因为如果这个 SSD 坏了,所有用其做日志的 OSD 守护进程也会失效

激活 OSD

准备好 OSD 后,可以用下列命令激活它。

ceph-deploy osd activate {node-name}:{data-disk-partition}[:{journal-disk-partition}]
ceph-deploy osd activate osdserver1:/dev/sdb1:/dev/ssd1
ceph-deploy osd activate osdserver1:/dev/sdc1:/dev/ssd2

activate 命令会让 OSD 进入 upin 状态,此命令所用路径和 prepare 相同。

创建 OSD

你可以用 create 命令一次完成准备 OSD 、部署到 OSD 节点、并激活它。 create 命令是依次执行 prepareactivate 命令的捷径。

ceph-deploy osd create {node-name}:{disk}[:{path/to/journal}]
ceph-deploy osd create osdserver1:sdb:/dev/ssd1

五、增加/拆除元数据服务器

ceph-deploy 增加和拆除元数据服务器很简单,只要一个命令就可以增加或拆除一或多个元数据服务器。

注意:必须部署至少一个元数据服务器才能使用 CephFS 文件系统,多个元数据服务器并行运行仍处于实验阶段。不要在生产环境下运行多个元数据服务器。

增加一元数据服务器

部署完监视器和 OSD 后,还可以部署元数据服务器。

ceph-deploy mds create {host-name}[:{daemon-name}] [{host-name}[:{daemon-name}] ...]

如果你想在同一主机上运行多个守护进程,可以为每个进程指定名字(可选)。

Ceph 存储集群3-部署:的更多相关文章

  1. Ceph 存储集群第一部分:配置和部署

    内容来源于官方,经过个人实践操作整理,官方地址:http://docs.ceph.org.cn/rados/ 所有 Ceph 部署都始于 Ceph 存储集群. 基于 RADOS 的 Ceph 对象存储 ...

  2. Ceph 存储集群

    Ceph 存储集群 Ceph 作为软件定义存储的代表之一,最近几年其发展势头很猛,也出现了不少公司在测试和生产系统中使用 Ceph 的案例,尽管与此同时许多人对它的抱怨也一直存在.本文试着整理作者了解 ...

  3. 002.RHCS-配置Ceph存储集群

    一 前期准备 [kiosk@foundation0 ~]$ ssh ceph@serverc #登录Ceph集群节点 [ceph@serverc ~]$ ceph health #确保集群状态正常 H ...

  4. Ceph 存储集群 - 搭建存储集群

    目录 一.准备机器 二.ceph节点安装 三.搭建集群 四.扩展集群(扩容)   一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4 ...

  5. Ceph 存储集群搭建

    前言 Ceph 分布式存储系统,在企业中应用面较广 初步了解并学会使用很有必要 一.简介 Ceph 是一个开源的分布式存储系统,包括对象存储.块设备.文件系统.它具有高可靠性.安装方便.管理简便.能够 ...

  6. Ceph 存储集群5-数据归置

    一.数据归置概览 Ceph 通过 RADOS 集群动态地存储.复制和重新均衡数据对象.很多不同用户因不同目的把对象存储在不同的存储池里,而它们都坐落于无数的 OSD 之上,所以 Ceph 的运营需要些 ...

  7. Ceph 存储集群4-高级运维:

    一.高级运维 高级集群操作主要包括用 ceph 服务管理脚本启动.停止.重启集群,和集群健康状态检查.监控和操作集群. 操纵集群 运行 Ceph 每次用命令启动.重启.停止Ceph 守护进程(或整个集 ...

  8. Ceph 存储集群2-配置:心跳选项、OSD选项、存储池、归置组和 CRUSH 选项

    一.心跳选项 完成基本配置后就可以部署.运行 Ceph 了.执行 ceph health 或 ceph -s 命令时,监视器会报告 Ceph 存储集群的当前状态.监视器通过让各 OSD 自己报告.并接 ...

  9. Ceph 存储集群1-配置:硬盘和文件系统、配置 Ceph、网络选项、认证选项和监控器选项

    所有 Ceph 部署都始于 Ceph 存储集群.基于 RADOS 的 Ceph 对象存储集群包括两类守护进程: 1.对象存储守护进程( OSD )把存储节点上的数据存储为对象: 2.Ceph 监视器( ...

  10. ceph存储集群的应用

    1.ceph存储集群的访问接口   1.1ceph块设备接口(RBD) ceph块设备,也称为RADOS块设备(简称RBD),是一种基于RADOS存储系统支持超配(thin-provisioned). ...

随机推荐

  1. Java 自增、自减

    i++/i-- 先使用变量的值,然后改变该变量的值: ++i/--i 先改变该变量的值,然后使用变量的值: : i = i++; 最终变量i的值到底是变成1呢还是保持为0呢? java中变量自增.自减 ...

  2. 电信NBIOT平台的CA证书上传-消息订阅回调地址检测503错误

    在NBIOT北向开发过程中,遇到消息订阅回调地址检测503错误,经过论坛查询与文档查阅一直都没有解决问题,大多人都说是RESTful地址格式问题,但其实不是.最终发现是我们在电信平台创建应用时,上传C ...

  3. 使用Selenium对网页元素进行定位的诸种方法

    使用Selenium进行自动化操作,首先要做的就是通过webdriver的get()方法打开一个URL链接. 在打开链接,完成页面加载之后,就可以通过Selenium提供的接口,在页面上进行各种操作了 ...

  4. Python 愤怒的小鸟代码实现:物理引擎pymunk使用

    游戏介绍 最近比较忙,周末正好有时间写了python版本的愤怒的小鸟,使用了物理引擎pymunk,图片资源是从github上下载的,实现了一个可玩的简单版本. 功能实现如下: 支持小鸟类型:红色小鸟, ...

  5. 6年iOS开发被裁员,是行业的饱和还是经验根本不值钱?

    前言: 最近看到很多iOS开发由于公司裁员而需要重新求职的.他们普遍具有4年甚至更长的工作经验.但求职结果往往都不太理想. 我在与部分iOS开发者交谈的过程中发现,很多人的工作思路不清晰,技能不扎实, ...

  6. HashMap 源码赏析 JDK8

    一.简介 HashMap源码看过无数遍了,但是总是忘,好记性不如烂笔头. 本文HashMap源码基于JDK8. 文章将全面介绍HashMap的源码及HashMap存在的诸多问题. 开局一张图,先来看看 ...

  7. 【DPDK】【Multiprocess】一个dpdk多进程场景的坑

    [前言] 这是一个隐藏了近3年的问题,理论上只要用到DPDK multiprocess场景的都会遇到这个问题,具体出不出问题只能说是看运气,即使不出问题也仍然是一个风险. [场景] 我先描述一下这个问 ...

  8. 三、Spring Cloud之软负载均衡 Ribbon

    前言 上一节我们已经学习了Eureka 注册中心,其实我们也使用到了Ribbon ,只是当时我们没有细讲,所以我们现在一起来学习一下Ribbon. 什么是Ribbon 之前接触到的负载均衡都是硬负载均 ...

  9. 记一次docker镜像导出导入流程

    目标:导出测试环境的镜像到本地机器 过程: 测试机: docker save -o /Dockerfile/crontabService/php72.tar lnmp72:v1.4 压缩,要不文件太大 ...

  10. postman传递当前时间戳

    有时我们在请求接口时,需要带上当前时间戳这种动态参数,那么postman能不能自动的填充上呢. 1请求动态参数(例如时间戳) 直接在参数值写 {{$timestamp}} 如下: 我们也可以使用pos ...