CentOS7.6部署ceph环境
CentOS7.6部署ceph环境
测试环境:
|
节点名称 |
节点IP |
磁盘 |
节点功能 |
|
Node-1 |
10.10.1.10/24 |
/dev/sdb |
监控节点 |
|
Node-2 |
10.10.1.20/24 |
/dev/sdb |
OSD节点 |
|
Node-3 |
10.10.1.30/24 |
/dev/sdb |
OSD节点 |
步骤:
- 主机信息配置
1.1. 修改三台主机的主机名
[root@Node-1 ~]# hostnamectl set-hostname Node-1
[root@Node-2 ~]# hostnamectl set-hostname Node-2
[root@Node-3 ~]# hostnamectl set-hostname Node-3
1.2. 修改三台主机的hosts文件,增加以下记录:
[root@Node-1 ~]# vi /etc/hosts
10.10.1.10 Node-1
10.10.1.20 Node-2
10.10.1.30 Node-3
1.3. 关闭三台主机的防火墙和Selinux
[root@Node-1 ~]# systemctl stop firewalld.sevice
[root@Node-1 ~]# systemctl disable firewalld.sevice
[root@Node-1 ~]# vi /etc/sysconfig/selinux
SELINUX=disabled
1.4. 创建集群用户cephd
[root@Node-1 ~]# useradd cephd
1.5. 在主节点上配置cephd无密码访问
[root@Node-1 ~]# ssh-keygen -t rsa
[root@Node-1 ~]# su – cephd
[cephd@node-1 ~]$ ssh-copy-id cephd@Node-2
[cephd@node-1 ~]$ ssh-copy-id cephd@Node-3
[cephd@node-1 ~]$ cd .ssh/
[cephd@node-1 .ssh]$ vi config
Host Node-1
Hostname Node-1
User cephd
Host Node-2
Hostname Node-2
User cephd
Host Node-3
Hostname Node-3
User cephd
1.6. 更换国内阿里云的yum源
mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
yum clean all
yum makecache
1.7. 安装ceph
[root@Node-1 ~]# yum -y install ceph
1.8. 安装ceph-deploy
[root@Node-1 ~]# yum -y install ceph-deploy
1.9. 部署ceph集群并且创建cluster目录
[cephd@node-1 ~]$ mkdir cluster
[cephd@node-1 ~]$ cd cluster
[cephd@node-1 cluster]$ ceph-deploy new Node-1 Node-2 Node-3
[cephd@node-1 cluster]$ vi ceph.conf
[global]
fsid = 77472f89-02d6-4424-8635-67482f090b09
mon_initial_members = Node-1
mon_host = 10.10.1.10
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd pool default size = 2
public network=10.10.1.0/24
2.0.安装ceph
[cephd@node-1 cluster]$ sudo ceph-deploy install Node-1 Node-2 Node-3
2.1.配置初始monitor
[cephd@node-1 cluster]$ sudo ceph-deploy mon create-initial
[cephd@node-1 cluster]$ ls -l
total 164
-rw------- 1 cephd cephd 71 Jun 21 10:31 ceph.bootstrap-mds.keyring
-rw------- 1 cephd cephd 71 Jun 21 10:31 ceph.bootstrap-mgr.keyring
-rw------- 1 cephd cephd 71 Jun 21 10:31 ceph.bootstrap-osd.keyring
-rw------- 1 cephd cephd 71 Jun 21 10:31 ceph.bootstrap-rgw.keyring
-rw------- 1 cephd cephd 63 Jun 21 10:31 ceph.client.admin.keyring
-rw-rw-r-- 1 cephd cephd 249 Jun 21 10:20 ceph.conf
-rw-rw-r-- 1 cephd cephd 139148 Jul 5 19:20 ceph-deploy-ceph.log
-rw------- 1 cephd cephd 73 Jun 21 10:18 ceph.mon.keyring
[cephd@node-1 cluster]$
2.2.检查群集状态
[cephd@node-1 cluster]$ ceph -s
cluster:
id: 77472f89-02d6-4424-8635-67482f090b09
health: HEALTH_OK
services:
mon: 1 daemons, quorum Node-1
mgr: Node-1(active), standbys: Node-2, Node-3
mds: bjdocker-1/1/1 up {0=Node-1=up:active}, 2 up:standby
osd: 3 osds: 3 up, 3 in
data:
pools: 2 pools, 128 pgs
objects: 23 objects, 5.02MiB
usage: 3.07GiB used, 207GiB / 210GiB avail
pgs: 128 active+clean
[cephd@node-1 cluster]$
2.3.创建POOL
[cephd@node-1 cluster]$ ceph osd pool create store 64
[cephd@node-1 cluster]$ ceph osd pool create app 64
[root@node-1 ~]# rados df
POOL_NAME USED OBJECTS CLONES COPIES MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS RD WR_OPS WR
app 0B 0 0 0 0 0 0 0 0B 47077 91.8GiB
store 5.02MiB 23 0 46 0 0 0 126 13.9MiB 3698 6.78MiB
total_objects 23
total_used 3.07GiB
total_avail 207GiB
total_space 210GiB
[root@node-1 ~]#
2.4.创建OSD
ceph-deploy osd create --data /dev/sdb Node-1
ceph-deploy osd create --data /dev/sdb Node-2
ceph-deploy osd create --data /dev/sdb Node-3
2.5.每台主机创建挂载点/data
[root@node-1 ~]# mkdir /data
2.5.创建cephfs
[cephd@node-1 cluster]$ sudo ceph-deploy mds create Node-1 Node-2 Node-3
[cephd@node-1 cluster]$ sudo ceph fs new bjdocker app store
[cephd@node-1 cluster]$ ceph mds stat
bjdocker-1/1/1 up {0=Node-1=up:active}, 2 up:standby
[cephd@node-1 cluster]$
2.6.cephfs文件系统挂载
mount -t ceph 10.10.1.10:6789,10.10.1.20:6789,10.10.1.30:6789:/ /data -o name=admin,secret=AQBO6gxdoWbLMBAAJlpIoLRpHlBFNCyVAejV+g==
[cephd@node-1 cluster]$ cat ceph.client.admin.keyring
[client.admin]
key = AQBO6gxdoWbLMBAAJlpIoLRpHlBFNCyVAejV+g==
[cephd@node-1 cluster]$
[cephd@node-1 cluster]$ df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/centos-root 50G 2.8G 48G 6% /
devtmpfs 3.9G 0 3.9G 0% /dev
tmpfs 3.9G 0 3.9G 0% /dev/shm
tmpfs 3.9G 8.9M 3.9G 1% /run
tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/mapper/centos-home 67G 33M 67G 1% /home
/dev/sda1 1014M 163M 852M 17% /boot
tmpfs 799M 0 799M 0% /run/user/0
10.10.1.10:6789,10.10.1.20:6789,10.10.1.30:6789:/ 99G 0 99G 0% /data
[cephd@node-1 cluster]$
集群PG的计算
PG 总数=(OSD 总数* 100 )/最大副本数
集群的Pool的PG数
PG总数=((OSD总数*100)/最大副本数 )/ 池数
安装失败后清理:
ceph-deploy purgedata [HOST] [HOST...]
ceph-deploy forgetkeys
命令:
[root@node-1 ceph]# ceph –s //集群健康状况
[root@node-1 ceph]# ceph osd tree //查看osd
CentOS7.6部署ceph环境的更多相关文章
- CentOS7.6部署k8s环境
CentOS7.6部署k8s环境 测试环境: 节点名称 节点IP 节点功能 K8s-master 10.10.1.10/24 Master.etcd.registry K8s-node-1 10.10 ...
- CentOS7.5 部署Ceph luminous
环境 两台CentOS7.5,每台各两块硬盘部署OSD public network = 10.0.0.0/24 cluster network = 172.16.0.0/24 导入ceph的rpm ...
- Centos7下部署ceph 12.2.1 (luminous)集群及RBD使用
前言 本文搭建了一个由三节点(master.slave1.slave2)构成的ceph分布式集群,并通过示例使用ceph块存储. 本文集群三个节点基于三台虚拟机进行搭建,节点安装的操作系统为Cento ...
- django2.0 + python3.6 在centos7 下部署生产环境的一些注意事项
一:mysql 与环境选用的坑 目前, 在生产环境部署django有三种方式: 1. apache + mod_wsgi 2. nginx + uwsigi 3. nginx + supervisor ...
- CentOS7.2 部署Ceph分布式存储
1.1 环境准备 主机名 IP地址 ceph-admin 192.168.16.220 ceph-node1,ceph-mon 192.168.16.221 ceph-node2,ceph-mon 1 ...
- centos7下部署iptables环境纪录(关闭默认的firewalle)
CentOS7默认的防火墙不是iptables,而是firewall.由于习惯了用iptables作为防火墙,所以在安装好centos7系统后,会将默认的firewall关闭,并另安装iptables ...
- centos7下部署iptables环境纪录(关闭默认的firewalle)(转)
下面介绍centos7关闭firewall安装iptables,并且开启80端口.3306端口的操作记录:[root@localhost ~]# cat /etc/redhat-release Cen ...
- CentOS7单机部署lamp环境和apache虚拟主机
(1)apache介绍 apache : httpd.apache.org 软件包:httpd 端口服务:80/tcp(http) 443/tcp(https,http+ssl) 配置文件: /etc ...
- centos7.1部署java环境服务器
1.检查操作系统自带java是jdk还是jre(否有javac,本例中没有javac) [root@bogon ~]# ls -l /usr/lib/jvm/总用量 0drwxr-xr-x. 3 ro ...
随机推荐
- Symmetric Tree 深度优先搜索
Given a binary tree, check whether it is a mirror of itself (ie, symmetric around its center). For e ...
- SpringCloud Zuul 路由映射规则配置
阅读目录 前言 快速入门 路由详解 Cookie与头信息 本地跳转 Hystrix和Ribbon支持 过滤器解释 动态加载 后记 回到目录 前言 本文起笔于2018-06-26周二,接了一个这周要完成 ...
- TreeSet之用外部比较器实现自定义有序(重要)
Student.java package com.sxt.set5; public class Student{ private String name; private int age; priva ...
- Python基础:17类和实例之一(类属性和实例属性)
1:类通常在一个模块的顶层进行定义.对于Python来说,声明与定义类是同时进行的. 2:类属性仅与其类相绑定,类数据属性仅当需要有更加“静态”数据类型时才变得有用,这种属性是静态变量.它们表示这些数 ...
- IO NIO AIO及常用框架概述
概述 nio 同步: 自己亲自出马持银行卡到银行取钱(使用同步IO时,Java自己处理IO读写). 异步: 委托一小弟拿银行卡到银行取钱,然后给你(使用异步IO时,Java将IO读写委托给OS处理,需 ...
- 云原生生态周报 Vol. 5 | etcd性能知多少
业界要闻 1 Azure Red Hat OpenShift已经GA.在刚刚结束的Red Hat Summit 2019上,Azure Red Hat OpenShift正式宣布GA,这是一个微软和红 ...
- Android Studio(五):修改Android Studio项目包名
Android Studio相关博客: Android Studio(一):介绍.安装.配置 Android Studio(二):快捷键设置.插件安装 Android Studio(三):设置Andr ...
- JS iFrame 加载慢怎么解决
在项目中经常要动态添加iframe,然后再对添加的iframe进行相关操作,有时候会遇到iframe加载很慢什么原因呢,该如何解决呢?带着这个问题一起通过本文学习,寻找答案吧! aaa.html &l ...
- Android 设置TextView字体颜色
设置TextView字体的颜色其实很简单,尤其是直接在XML文件中,可以直接通过textColor属性指定颜色值,达到设置文本颜色的效果:那在代码中如何动态设置字体的颜色值呢? 接下来,介绍如何通过J ...
- HDU3336 Count the string 题解 KMP算法
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=3336 题目大意:找出字符串s中和s的前缀相同的所有子串的个数. 题目分析:KMP模板题.这道题考虑 n ...