CEPH

1.组成部分

1.1 monitor

admin节点安装ceph-deploy工具

  • admin节点安装ceph-deploy

    • 添加源信息
    rm -f /etc/yum.repos.d/*
    wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
    wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
    sed -i '/aliyuncs.com/d' /etc/yum.repos.d/*.repo
    echo '#阿里ceph源
    [ceph]
    name=ceph
    baseurl=http://mirrors.aliyun.com/ceph/rpm-luminous/el7/x86_64/
    gpgcheck=0
    [ceph-noarch]
    name=cephnoarch
    baseurl=http://mirrors.aliyun.com/ceph/rpm-luminous/el7/noarch/
    gpgcheck=0
    [ceph-source]
    name=ceph-source
    baseurl=http://mirrors.aliyun.com/ceph/rpm-luminous/el7/SRPMS/
    gpgcheck=0
    #'>/etc/yum.repos.d/ceph.repo
    yum clean all && yum makecache
    yum install deltarpm
    • 把软件包源加入软件仓库。用文本编辑器创建一个 YUM (Yellowdog Updater, Modified) 库文件,其路径为 /etc/yum.repos.d/ceph.repo 。例如:
    sudo vim /etc/yum.repos.d/ceph.repo
    
    
    • 添加ceph源
        name=Ceph noarch packages
    # 根据当前系统的发行版来:http://download.ceph.com/
    baseurl=http://download.ceph.com//rpm-nautilus/el7/noarch/
    enabled=1
    gpgcheck=1
    type=rpm-md
    gpgkey=https://download.ceph.com/keys/release.asc
    • 安装ceph-deploy
     sudo yum update && sudo yum install ceph-deploy
  • 所有节点安装NTP(network time portocal)、openssh

# yum 安装 ntp
sudo yum install ntp ntpdate ntp-doc # 校对系统时钟
ntpdate 0.cn.pool.ntp.org
  • 安装ssh服务
   sudo yum install openssh-server

后续操作:安装ceph-deploy的节点需要ssh到各个节点远程完成ceph的安装配置工作,

1.2 创建ceph部署用户
  • 添加部署用户
   sudo useradd -d /home/cephd -m cephd
  • 设置密码
   sudo passwd cephd
# moon2017
  • 赋予root权限
   echo "cephd ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/cephd

   sudo chmod 0440 /etc/sudoers.d/cephd
cat ~/.ssh/config
Host node1
Hostname node1
User cephd
Host node2
Hostname node2
User cephd
  • 开放所需端口

    放所需端口设置,Ceph Monitors 之间默认使用 6789 端口通信, OSD 之间默认用 6800:7300 这个范围内的端口通信,所以我们需要调整防火墙设置,开放所需端口,允许相应的入站请求。
    # 防火墙设置
sudo firewall-cmd --zone=public --add-port=6789/tcp --permanent # 当然我们也可以关闭防火墙
sudo systemctl stop firewalld.service #停止 firewall
sudo systemctl disable firewalld.service #禁止 firewall 开机启动
部署集群

cephd账号下的ceph-cluster目录下运行

ceph-deploy
ImportError: No module named pkg_resources
安装yum install python-setuptools

Delta RPMs disabled because /usr/bin/applydeltarpm not installed.

yum provides '*/applydeltarpm'
yum install deltarpm -y

unable to find a keyring on /etc/ceph/ceph.client.admin.keyring

  • 清理配置
 # 清理 Ceph 安装包
ceph-deploy purge admin node1 node2
# 清理配置
ceph-deploy purgedata admin node1 node2
ceph-deploy forgetkeys rm -rf ./*
  • 通过ceph-deploy创建admin,node信息
  ceph-deploy new admin
  • 修改ceph集群副本数

Vim ceph.conf

osd pool default size = 2  #增加默认副本数为 2

这里需要注意的是hostname,需要和命令参数名称一致。 修改机器hostname方法:

1.修改 /etc/hostname

2.通过hostnamectl 命令查看。如果不一样,需要使用 hostnamectl set-hostname 自定义名称

如果不这样设置的话,在创建monitor这一步的时候,会读取 /var/run/ceph下的文件,文件的命名应该是根据系统的hostname来创建的,如hostname不一致,就会报错。

  • 创建集群,节点
  ceph-deploy install admin node1 node2
  • 创建monitor
  ceph-deploy mon create-initial
# ceph-deploy --overwrite-conf mon create-initial
  • 安装mgr
ceph-deploy mgr create node1 node2
  • 分发配置文件
  ceph-deploy admin node1 node2

将配置文件改为可读的权限:

 sudo chmod +r /etc/ceph/ceph.client.admin.keyring
  • 增加、删除OSD

    • 查看节点磁盘信息
        ceph-deploy disk list node1

    得到结果

    • 准备OSD(过期)

    官网上介绍的是依次执行:准备(prepare)激活(active)。最后是创建(create)。但是最新的版本里面 ceph-deploy osd 命令只支持list,create命令,所以就直接执行 create命令。执行create命令会依次执行prepare、active命令

    # 格式
    ceph-deploy osd prepare {node-name}:{data-disk}[:{journal-disk}]
    # 自己创建的目录
    ceph-deploy osd prepare node1: /var/local/osd1
    • 创建osd

    创建osd需要有独立的磁盘。在虚拟机中,只有sda盘,并且是系统盘,需要分区出来得到一块新的磁盘信息。

    1. 查看磁盘信息

      sudo fdisk -l



      通过命令可以知道,*虚拟机只有sda一个磁盘,因此需要在sda上面进行分区,不能直接在sda上面直接创建osd。

    2. 分区操作

         fdisk /dev/sda

      输入n一直回车,最后一定要输入w保存

      想要马上生效,需要输入partprobe通知内核重新读取分区表信息

      这样,新的分区就建好了。需要在所有节点上执行上述创建分区操作。

    3. 创建osd

    ```bash
    ceph-deploy osd create --data /dev/sda3 node1
    ```

    结果

    • 同步配置信息
    ceph-deploy admin admin node1 node2

    将配置文件和admin密钥同步到各个节点,以便在各个node上使用ceph命令,无需指定montior地址和ceph.client.admin.keyring密钥

    确保你对 ceph.client.admin.keyring 有正确的操作权限

    在所有的节点中修改该文件的操作权限。

    sudo chmod +r /etc/ceph/ceph.client.admin.keyring
    
    

    使用w命令,保存分区信息并退出

    11.ls /dev/sdb*,可以看到分区已经建立,如果分区信息未被创建,使用partprobe通知内核重新读取分区表信息。

  • 创建成功

开启dashboard
  • 查看active的mgr
ceph -s



由上图可知,当前活跃的mgr是node2节点,需要在node2节点上做操作,否则不成功

  • 开启监控
ceph mgr module enable dashboard
  • 生成并安装一个 自签名证书
ceph dashboard create-self-signed-cert
  • 生成密钥,生成两个文件----dashboard.crt dashboard.key (在当前登陆的账号路径下面:/home/cephd/)
mkdir mgr-dashboard

cd mgr-dashboard

openssl req -new -nodes -x509   -subj "/O=IT/CN=ceph-mgr-dashboard" -days 3650   -keyout dashboard.key -out dashboard.crt -extensions v3_ca

  • 配置服务地址、端口,默认的端口是8443
ceph config set mgr mgr/dashboard/server_addr 192.168.242.92
[root@node1 mgr-dashboard]# ceph config set mgr mgr/dashboard/server_port 8443
[root@node1 mgr-dashboard]# ceph mgr services
{
"dashboard": "https://node2:8443/"
}
  • 创建一个用户、密码
ceph dashboard set-login-credentials admin admin123
  • 登陆成功后

  • 查看过滤运行的进程
sudo systemctl list-units|grep mgr

ceph集群搭建的更多相关文章

  1. Ceph集群搭建及Kubernetes上实现动态存储(StorageClass)

    集群准备 ceph集群配置说明   节点名称 IP地址 配置 作用 ceph-moni-0 10.10.3.150 centos7.5 4C,16G,200Disk 管理节点,监视器 monitor ...

  2. Ceph 集群搭建

    1.Ceph部署 1.1 Ceph 安装前准备,环境与拓扑图如下: 主机名 外网IP 内网IP 安装组件 磁盘块 c720181 172.22.69.84 192.168.20.181 ceph-de ...

  3. CEPH集群搭建(CentOS 7)

    以包含四个节点的集群为例,其中包括一个 ceph-deploy 管理节点和一个三节点的Ceph存储集群. 下图中每个节点代表一台机器. 创建一个 Ceph 存储集群,它有一个 Monitor 和两个 ...

  4. Ceph集群搭建记录

    环境准备 基础环境 node00 192.168.247.144 node00 node01 192.168.247.135 node01 node02 192.168.247.143 node02 ...

  5. docker创建ceph集群

    背景 Ceph官方现在提供两类镜像来创建集群,一种是常规的,每一种Ceph组件是单独的一个镜像,如ceph/daemon.ceph/radosgw.ceph/mon.ceph/osd等:另外一种是最新 ...

  6. ceph-deploy离线部署ceph集群及报错解决FAQ

    ceph-deploy部署ceph集群 环境介绍 主机名 ip地址 操作系统 角色 备注 ceph-node1 10.153.204.13 Centos7.6 mon.osd.mds.mgr.rgw. ...

  7. Ceph部署(一)集群搭建

    背景 Ceph简介 Ceph是一个分布式存储,可以提供对象存储.块存储和文件存储,其中对象存储和块存储可以很好地和各大云平台集成.一个Ceph集群中有Monitor节点.MDS节点(可选,用于文件存储 ...

  8. Ceph 存储集群 - 搭建存储集群

    目录 一.准备机器 二.ceph节点安装 三.搭建集群 四.扩展集群(扩容)   一.准备机器 本文描述如何在 CentOS 7 下搭建 Ceph 存储集群(STORAGE CLUSTER). 一共4 ...

  9. 小型ceph集群的搭建

    了解ceph DFS(distributed file system)分布式存储系统,指文件系统管理的物理存储资源,不一定直接连接在本地节点上,而是通过计算机网络与节点相连,众多类别中,ceph是当下 ...

随机推荐

  1. swust oj 1011

    二叉排序树的实现和查找 1000(ms) 10000(kb) 2782 / 6301 按照给定的关键字集合,建立二叉排序树.在建立的二叉排序树上查找指定的关键字,查找成功,输出找到该关键字比较的次数: ...

  2. 大数相加 Big Num

    代码: #include<stdio.h>#include<algorithm>#include<iostream>#include<string.h> ...

  3. 干货分享:Neutron的PPT,帮助你理解Neutron的各种细节

    深入解析Neutron http://files.cnblogs.com/popsuper1982/Neutron.pptx 经典的三节点部署 架构 怎么理解? 更加深入:Tap Interface ...

  4. Kubernetes(k8s)1.12.2集群搭建

    本博客搭建k8s集群1.12.2版本 1. 准备2台以上最低2核4G的服务器 2. 关闭机器的防火墙 12 systemctl disable firewalldsystemctl stop fire ...

  5. ajax的get 和post方式发送请求

    <%@ page language="java" import="java.util.*" pageEncoding="UTF-8"% ...

  6. [Swift]LeetCode844. 比较含退格的字符串 | Backspace String Compare

    Given two strings S and T, return if they are equal when both are typed into empty text editors. # m ...

  7. mongo 根据对象中的某个条件来查询

    假如A表有如下数据 { "id" : 1, "users_info" : [{"uid" : 10001}, {"uid" ...

  8. 【T-SQL】系列文章全文目录(2017-06-26更新)

    本系列[T-SQL]主要是针对T-SQL的总结. SQL基础 [T-SQL基础]01.单表查询-几道sql查询题 [T-SQL基础]02.联接查询 [T-SQL基础]03.子查询 [T-SQL基础]0 ...

  9. dataframe去除null、NaN和空字符串

    去除null.NaN 去除 dataframe 中的 null . NaN 有方法 drop ,用 dataframe.na 找出带有 null. NaN 的行,用 drop 删除行: import ...

  10. Python内置函数(45)——object

    英文文档: class objectReturn a new featureless object. object is a base for all classes. It has the meth ...