kubesphere官网:https://kubesphere.io/docs/advanced-v2.0/zh-CN/introduction/intro/

一、准备环境

1、准备服务器

master1 :192.168.37.11 centos7.5 + 8cpu + 16G(内存) + 20G(/) + 200G ( data) + 200G(mnt)
master2 :192.168.37.12 centos7.5 + 8cpu + 16G(内存) + 20G(/) + 200G ( data)
master3 :192.168.37.13 centos7.5 + 8cpu + 16G(内存) + 20G(/) + 200G ( data)
node1: 192.168.37.14 centos7.5 + 8cpu + 16G(内存) + 20G(/) + 1T ( data)
node2: 192.168.37.15 centos7.5 + 8cpu + 16G(内存) + 20G(/) + 1T ( data)
node3: 192.168.37.16 centos7.5 + 8cpu + 16G(内存) + 20G(/) + 1T ( data)
node4: 192.168.37.17 centos7.5 + 8cpu + 16G(内存) + 20G(/) + 1T ( data)
nfs-server:192.168.18 centos7.5 + 4cpu + 8G(内存) + 20G(/) + 2T ( data)

2、安装工具服务

(1)安装jdk1.8

(2)安装nfs服务 (后面需要修改vas.yml文件中的配置)

登陆nfs-server服务器:
// 安装nfs:
# yum -y install nfs-utils
# vim /etc/exports
/opt/kubesphere 192.168.37.0/(rw,no_root_squash) //启动nfs服务
#systemctl start nfs
#systemctl enable nfs

 

二、下载安装kubesphere

1、离线下载

curl -L https://kubesphere.io/download/offline/advanced-2.0.2 > advanced-2.0.2.tar.gz
tar -zxf advanced-2.0..tar.gz
cd kubesphere-all-offline-advanced-2.0./conf

2、 修改配置文件 vars.yml

// 修改配置文件vars.yml 中的nfs配置和all-in-one配置
# vim kubesphere-all-offline-advanced-2.0./conf/vars.yml
nfs_client_enable: true
nfs_client_is_default_class: true
nfs_server: 192.168.37.18
nfs_path: /opt/kubesphere
local_volume_provisioner_enabled: false
local_volume_is_default_class: false

3、修改配置文件hosts.ini

# vim kubesphere-all-offline-advanced-2.0.2/conf/hosts.ini
[all]
master1 ansible_connection=local ip=192.168.37.11 ansible_ssh_pass=root
master2 ansible_host=192.168.37.12 ip=192.168.37.12 ansible_ssh_pass=root
master3 ansible_host=192.168.37.13 ip=192.168.37.13 ansible_ssh_pass=root
node1 ansible_host=192.168.37.167 ip=192.168.37.167 ansible_ssh_pass=root
node2 ansible_host=192.168.37.167 ip=192.168.37.167 ansible_ssh_pass=root
node2 ansible_host=192.168.37.167 ip=192.168.37.167 ansible_ssh_pass=root
node2 ansible_host=192.168.37.167 ip=192.168.37.167 ansible_ssh_pass=root
[local-registry]master1

[kube-master]
master1
master2
master3
[kube-node] 
node1
node2
node3
node4
[etcd] 
master1
master2
master3
[k8s-cluster:children]
kube-node
kube-master

4、配置docker安装

由于docker占用空间较大,将docker软连接到挂载了大磁盘的 data 目录下

mkdir -p /data/docker

mkdir -p /data/kubelet

ln -sf /data/docker /var/lib/docker

ln -sf /data/kubelet /var/lib/kubelet

添加一个daemon.json文件:

# mkdir -p /etc/docker
# vim /etc/docker/daemon.json
{
"bip": "10.20.0.1/16",
"fixed-cidr": "10.20.0.0/16",
"mtu":
}

mnt目录挂载一个大磁盘的原因是,docker的registry默认的安装目录是 /mnt  。。

5、安装

# cd kubesphere-all-offline-advanced-2.0.2/scripts
# ./install.sh
看到以下内容说明安装成功:

successsful!
#####################################################
### Welcome to KubeSphere! ###
#####################################################

Console: http://192.168.37.11:30880
Account: admin
Password: P@88w0rd

NOTE:
1. After log in to console, please verify the 
monitoring status of service components in 
the "Cluster Status". If the service is not 
ready, please wait patiently. You can start 
to use when all components are totally ready.
2. Please modify the default password after login.
#####################################################

5、注意

1、系统版本一定要安装对应的
2、docker安装默认数据存放位置是/var/lib/docker,,如果/目录不够大的话,将docker的目录做一个软连接到空间大的磁盘上
3、nfs存储:
(1)修改vars.yml 中的nfs配置
(2)修改/etc/exports,对nfs进行授权
(3)启动nfs服务
 

三、测试kubesphere集群

1、web端登陆:

输入“ http://192.168.37.11:30880 ” ,进入登陆界面,

登陆的用户名和密码是成功安装系统时默认给出的

Console: http://192.168.37.11:30880
Account: admin
Password: P@88w0rd

2、进入服务修改登陆密码,测试集群的node是否可用。

kubesphere集群搭建(多节点)的更多相关文章

  1. hadoop集群搭建——单节点(伪分布式)

    1. 准备工作: 前提:需要电脑安装VM,且VM上安装一个Linux系统 注意:本人是在学习完尚学堂视频后,结合自己的理解,在这里做的总结.学习的视频是:大数据. 为了区分是在哪一台机器做的操作,eg ...

  2. Zookeeper节点增删改查与集群搭建(笔记)

    1.上传文件目录说明 上传的文件一般放在 /home/下 安装文件一般在 /usr/local/下 2. 安装zookeeper 2.1将zookeeper-3.4.11.tar.gz拷贝到/home ...

  3. redhat6.5 redis单节点多实例3A集群搭建

    在进行搭建redis3M 集群之前,首先要明白如何在单节点上完成redis的搭建. 单节点单实例搭建可以参看这个网:https://www.cnblogs.com/butterflies/p/9628 ...

  4. 三节点Hadoop集群搭建

    1. 基础环境搭建 新建3个CentOS6.5操作系统的虚拟机,命名(可自定)为masternode.slavenode1和slavenode2.该过程参考上一篇博文CentOS6.5安装配置详解 2 ...

  5. kafka系列二:多节点分布式集群搭建

    上一篇分享了单节点伪分布式集群搭建方法,本篇来分享一下多节点分布式集群搭建方法.多节点分布式集群结构如下图所示: 为了方便查阅,本篇将和上一篇一样从零开始一步一步进行集群搭建. 一.安装Jdk 具体安 ...

  6. kafka系列一:单节点伪分布式集群搭建

    Kafka集群搭建分为单节点的伪分布式集群和多节点的分布式集群两种,首先来看一下单节点伪分布式集群安装.单节点伪分布式集群是指集群由一台ZooKeeper服务器和一台Kafka broker服务器组成 ...

  7. apache-storm-1.0.2.tar.gz的集群搭建(3节点)(图文详解)(非HA和HA)

    不多说,直接上干货! Storm的版本选取 我这里,是选用apache-storm-1.0.2.tar.gz apache-storm-0.9.6.tar.gz的集群搭建(3节点)(图文详解) 为什么 ...

  8. RabbitMQ-rabbitmqctl多机多节点和单机多节点集群搭建(五)

    准备 1.准备3台物理机 我这里通过本地机和2台虚拟模拟我是mac通过(Parallel Desktop 实现) 2.按照签名的liux安装步骤在3台机器都安装rabiitMq 3.将任意一节点的co ...

  9. Zookeeper集群搭建(单机多节点,伪集群,docker-compose集群)

    Zookeeper介绍 原理简介 ZooKeeper是一个分布式的.开源的分布式应用程序协调服务.它公开了一组简单的原语,分布式应用程序可以在此基础上实现更高级别的同步.配置维护.组和命名服务.它的设 ...

随机推荐

  1. 小D课堂 - 新版本微服务springcloud+Docker教程_3-01 什么是微服务的注册中心

    笔记 第三章 SpringCloud核心组件注册中心 1.什么是微服务的注册中心     简介:讲解什么是注册中心,常用的注册中心有哪些 (画图)                  理解注册中心:服务 ...

  2. 浅谈JS中 reduce() 的用法

    过去有很长一段时间,我一直很难理解 reduce() 这个方法的具体用法,平时也很少用到它.事实上,如果你能真正了解它的话,其实在很多地方我们都可以用得上,那么今天我们就来简单聊聊JS中 reduce ...

  3. 【汇总】数据库提权(mysql、mssql)

    日期:2018-04-03 11:46:45 作者:Bay0net 介绍:利用 mssql 的 sa 账号提权.利用 MySQL 的 UDF 提权 0x01.mssql 提权 恢复 xp_cmdshe ...

  4. wpf 父控件和子控件 各自触发鼠标按下事件

    父控件 PreviewMouseDown子控件 MouseDown

  5. C# Timespan Tostring 时分秒格式

    timeSpan.ToString(@"hh\:mm\:ss");

  6. django helloworld

    http://note.youdao.com/noteshare?id=8f0b036922e71c1feb5d0d06a4779c6f

  7. Using NodeLists

    Understanding a NodeList object and its relatives, NamedNodeMap and HTMLCollection, is critical to a ...

  8. java中instanceof的基本使用

    java中的instanceof运算符是用于判断对象是否是指定类或这个指定类的子类的一个实例,返回值是布尔类型. 语法: boolean result = object instanceof clas ...

  9. CTF—攻防练习之HTTP—命令执行漏洞

    渗透环境: 主机:192.168.32.152 靶机:192.168.32.1 命令执行漏洞 命令执行漏洞概念:当应用需要调用一些外部程序去处理内容的情况下,就会用到一些执行系统命令的函数.如PHP中 ...

  10. vim简单题练习-------出自《鸟哥的linux私房菜》第309页码题目

    用vim打开文件,在第34行向右移动15字符,怎么做? 34G 15->或者15j 如何到达文件的页首或者页尾? 1G或者gg G 如何在光标所在行中,移动到行头及行尾? home end vi ...