GlusterFS简介

GlusterFS是一个开源的分布式文件系统,是Scale存储的核心,能够处理千数量级的客户端。

整合了许多存储块(server)通过Infiniband RDMA或者 TCP/IP方式互联的一个并行的网络文件系统。

GlusterFS的特征:

  • 容量可以按比例的扩展,且性能却不会因此而降低。
  • 廉价且使用简单,完全抽象在已有的文件系统之上。
  • 扩展和容错设计的比较合理,复杂度较低
  • 适应性强,部署方便,对环境依赖低,使用,调试和维护便利

环境介绍

部署GlusterFS分布式存储系统,需要给机器增加一块新磁盘,磁盘是需要被格式化的

GlusterFS最少需要两个节点,内存最低需要1G

IP HOSTNAME SYSTEM-VERSION
192.168.72.73 glusterfs-01 centos7.6
192.168.72.74 glusterfs-02 centos7.6

开始GlusterFS部署

参考centos官网提供的glusterfs部署:gluster-Quickstart

如果不是外网服务器,firewalld服务可以直接关掉,需要关闭selinux服务,重启后才会生效

selinux的关闭方式:sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config

# cat /etc/redhat-release
CentOS Linux release 7.6.1810 (Core)
# systemctl status firewalld.service | grep active
Active: inactive (dead)
# sestatus
SELinux status: disabled

没有特殊提醒的前提下,以下所有操作,所有的机器都需要操作

配置hosts解析

# cat >> /etc/hosts <<EOF
192.168.72.73 glusterfs-01
192.168.72.74 glusterfs-02
EOF

配置GlusterFS

# yum install -y centos-release-gluster

创建文件系统

可以使用lsblk命令查看新磁盘的盘符,不要完全复制我的文档

这里要用xfs格式化磁盘,并且xfs的文件格式支持PB级的数据量

如果是centos6系列的,需要安装xfs支持包:yum install -y xfsprogs

# mkfs.xfs -i size=512 /dev/sdb
# mkdir -p /bricks/brick1
# echo '/dev/sdb /bricks/brick1 xfs defaults 0 0' >> /etc/fstab
# mount -a

安装GlusterFS

# yum install -y glusterfs-server

启动GlusterFS

# systemctl enable glusterd --now
# systemctl status glusterd | grep active
Active: active (running) since Sun 2021-05-09 00:33:20 CST; 21s ago

将节点加入到主机池

这个操作,只需要在glusterfs-01机器上操作即可

# gluster peer probe glusterfs-02
peer probe: success

查看主机池的状态

# gluster pool list
UUID Hostname State
4364f3d9-5be4-4f8f-9e8c-a47edb099bf0 glusterfs-02 Connected
3cb3da7f-f923-42b7-908e-901533468055 localhost Connected
# gluster peer status
Number of Peers: 1 Hostname: glusterfs-02
Uuid: 4364f3d9-5be4-4f8f-9e8c-a47edb099bf0
State: Peer in Cluster (Connected)

创建GlusterFS复制卷

所有节点都需要创建下面的目录

这里的目录,要和上面fstab挂载的目录是一致的

# mkdir /bricks/brick1/gv0

以下的操作,在 glusterfs-01机器上操作即可

# gluster volume create gv0 replica 2 glusterfs-01:/bricks/brick1/gv0 glusterfs-02:/bricks/brick1/gv0
# gluster volume start gv0
# gluster volume info Volume Name: gv0
Type: Replicate
Volume ID: 84ce70ca-cd50-4680-ad6c-5a82ea9bb148
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: glusterfs-01:/bricks/brick1/gv0
Brick2: glusterfs-02:/bricks/brick1/gv0
Options Reconfigured:
cluster.granular-entry-heal: on
storage.fips-mode-rchecksum: on
transport.address-family: inet
nfs.disable: on
performance.client-io-threads: off

GlusterFS测试

# mount -t glusterfs glusterfs-01:/gv0 /mnt
# df -Th | grep glusterfs
glusterfs-01:/gv0 fuse.glusterfs 10G 135M 9.9G 2% /mnt

因为是复制卷,所以可用容量为一半(我是两台机器各增加了一块10G的新磁盘)

# for i in `seq -w 1 100`; do cp -rp /var/log/messages /mnt/copy-test-$i; done
# ls -lA /bricks/brick1/gv0
# ls -lA /mnt

可以看到,两边的文件都是一致的

到这里,GlusterFS已经部署完成了

关于GlusterFS其他卷的配置,可以看这位大佬的博客:GlusterFS分布式存储

CentOS 7.6 部署 GlusterFS 分布式存储系统的更多相关文章

  1. GlusterFS分布式存储系统中更换故障Brick的操作记录

    前面已经介绍了GlusterFS分布式存储集群环境部署记录,现在模拟下更换故障Brick的操作: 1)GlusterFS集群系统一共有4个节点,集群信息如下: 分别在各个节点上配置hosts.同步好系 ...

  2. GlusterFS分布式存储系统中更换故障Brick的操作记录1

    前面已经介绍了GlusterFS分布式存储集群环境部署记录,现在模拟下更换故障Brick的操作: 1)GlusterFS集群系统一共有4个节点,集群信息如下: 分别在各个节点上配置hosts.同步好系 ...

  3. Linux实战教学笔记52:GlusterFS分布式存储系统

    一,分布式文件系统理论基础 1.1 分布式文件系统出现 计算机通过文件系统管理,存储数据,而现在数据信息爆炸的时代中人们可以获取的数据成指数倍的增长,单纯通过增加硬盘个数来扩展计算机文件系统的存储容量 ...

  4. GlusterFS分布式存储系统

    一,分布式文件系统理论基础 1.1 分布式文件系统出现 计算机通过文件系统管理,存储数据,而现在数据信息爆炸的时代中人们可以获取的数据成指数倍的增长,单纯通过增加硬盘个数来扩展计算机文件系统的存储容量 ...

  5. 在CentOS上安装部署MooseFS分布式文件系统

    参考资料: http://www.moosefs.org/tl_files/manpageszip/moosefs-step-by-step-tutorial-cn-v.1.1.pdf 环境介绍:OS ...

  6. GlusterFS分布式存储系统复制集更换故障Brick操作记录

    场景: GlusterFS 3节点的复制集,由于磁盘故障,其中一个复制集需要重装系统,所以需要重装glusterfs并将该节点加入glusterfs集群 一. 安装GlusterFS 首先在重装系统节 ...

  7. GlusterFS分布式文件系统部署及基本使用(CentOS 7.6)

    GlusterFS分布式文件系统部署及基本使用(CentOS 7.6) 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. Gluster File System 是一款自由软件,主要由 ...

  8. GlusterFS ——分布式卷

    GlusterFS概述 全部部署GlusterFS文件系统地址:https://www.cnblogs.com/Mercury-linux/p/12050389.html GlusterFS系统是一个 ...

  9. Tachyon---基于内存的分布式存储系统

    Tachyon是一个以内存为核心的开源分布式存储系统,也是目前发展最迅速的开源大数据项目之一.Tachyon为不同的大数据计算框架(如Apache Spark,Hadoop MapReduce, Ap ...

随机推荐

  1. mysql 外连接

    自连接:最大的特点是:一张表看做两张表.自己连接自己. 找出每个员工的上级领导,要求显示员工名和对应的领导名. select e.ename,ee.ename from emp e join emp ...

  2. Keil MDK STM32系列(三) 基于标准外设库SPL的STM32F407开发

    Keil MDK STM32系列 Keil MDK STM32系列(一) 基于标准外设库SPL的STM32F103开发 Keil MDK STM32系列(二) 基于标准外设库SPL的STM32F401 ...

  3. 基于Bert的恶意软件多分类

    基于Bert从Windows API序列做恶意软件的多分类 目录 基于Bert从Windows API序列做恶意软件的多分类 0x00 数据集 0x01 BERT BERT的模型加载 从文本到ids ...

  4. [.Net]使用ABP 数据库迁移migration遇到的坑及解决方案

    ​ 问题:在使用Update-Database时,突然出现"数据库中已存在名为 'XXX' 的对象". 检查发现__EFMigrationsHistory表中的MigrationI ...

  5. Solon 开发,一、注入或手动获取配置

    Solon 开发 一.注入或手动获取配置 二.注入或手动获取Bean 三.构建一个Bean的三种方式 四.Bean 扫描的三种方式 五.切面与环绕拦截 六.提取Bean的函数进行定制开发 七.自定义注 ...

  6. azure django bug

    azure web app service azure web app service无法部署dhango网站 本地服务器测试代码 实际azure测试 django service 没有部署选项,需要 ...

  7. JQ的使用

    1.hello,word <script type="text/javascript" src="js/jquery-1.10.1.js">< ...

  8. tep0.9.5支持自定义扩展request

    tep0.9.5更新了以下内容: 自定义request请求日志 Allure报告添加request描述 猴子补丁扩展request fixtures支持多层级目录 FastAPI替代Flask 升级t ...

  9. gin中如何自定义验证器

    package main import ( "github.com/gin-gonic/gin" "github.com/gin-gonic/gin/binding&qu ...

  10. Python中open函数怎么操作文件--9

    转:https://www.tuicool.com/wx/vYjaYnV 在 Python 中,如果想要操作文件,首先需要创建或者打开指定的文件,并创建一个文件对象,而这些工作可以通过内置的 open ...