本文提供的kubernetes1.1实际为kubernetes0.8,最新kubernetes部署方式见下一篇文章:centos下kubernetes+flannel部署。

一、部署环境信息:

1)master主机

IP:10.11.150.74;主机名:tc_150_74;DNS配置中的主机名:tc-150-74;内核:Linux version 3.10.0-229.11.1.el7.x86_64

2)node主机

IP:10.11.150.73;主机名:tc_150_73;DNS配置中的主机名:tc-150-73;内核:Linux version 3.10.0-123.el7.x86_64

部署过程主要参考kubernetes的官网(戳这里)。

二、准备工作:

1)各个rpm包下载(百度网盘备份):cadvisor-0.14.0docker-1.7.1etcd-0.4.6kubernetes-client-1.1.0kubernetes-master-1.1.0kubernetes-node-1.1.0etcdctl。主要下载源为fedora的镜像源(戳这里戳这里)。

2)在73和74机上安装docker。master上安装docker非必需,但docker是安装kubernetes-node的依赖项,所以如果需要安装kubernetes-node则必须安装docker。官网上建议使用docker-1.6.2和docker-1.7.1,在实际安装过程中发现,非1.7.1版本的docker下安装kubernetes-node会出现冲突错误。如安装docker-1.8.2之后再安装kubernetes-node时出现如下错误:

错误:docker-engine conflicts with docker-1.8.-.el7.centos.x86_64

安装方式为:

sudo yum localinstall docker-1.7.-.el7.x86_64.rpm -y 

如果安装docker时出现类似如下错误:

错误:软件包:docker-1.7.-.el7.centos.x86_64 (/docker-1.7.-.el7.centos.x86_64)
需要:docker-selinux >= 1.7.-.el7.centos
可用: docker-selinux-1.7.-.el7.x86_64 (7ASU1-updates)
docker-selinux = 1.7.-.el7

则到需要先下载安装对应版本的docker-selinux(下载戳这里)。

3)安装etcd

sudo yum localinstall etcd-0.4.-.el7.centos.x86_64.rpm -y

etcd只要在master主机上安装即可。

4)安装cadvisor(非必须)

sudo yum localinstall cadvisor-0.14.-.el7.x86_64.rpm -y

只需要在node主机上安装即可。

5)安装kubernetes

需要先安装client再安装master和node。

sudo yum localinstall kubernetes-client-1.1.-0.17.git388061f.fc23.x86_64.rpm -y
sudo yum localinstall kubernetes-master-1.1.-0.17.git388061f.fc23.x86_64.rpm -y
sudo yum localinstall kubernetes-node-1.1.-0.17.git388061f.fc23.x86_64.rpm -y

三、配置与启动服务

1)etcd的启动

sudo etcd -peer-addr 10.11.150.74: -addr 10.11.150.74: -peer-bind-addr 0.0.0.0: -bind-addr 0.0.0.0: &

首先必须确保etcd启动成功且能被正常访问,否则启动 kube-apiserver时会出现如下错误:

I1111 ::42.451759     plugins.go:] No cloud provider specified.
I1111 ::42.452027 master.go:] Node port range unspecified. Defaulting to -.
I1111 ::42.453609 master.go:] Will report 10.11.150.74 as public IP address.
[restful] // :: log.go:: [restful/swagger] listing is available at https://10.11.150.74:6443/swaggerapi/
[restful] // :: log.go:: [restful/swagger] https://10.11.150.74:6443/swaggerui/ is mapped to folder /swagger-ui/
F1111 ::52.516153 controller.go:] Unable to perform initial IP allocation check: unable to refresh the service IP block: no kind "RangeAllocation" is registered for version "v1beta3"

在73和74机上使用etcdctl查看etcd的运行状态,执行如下命令,如果正常则返回已创建的表结构。

./etcdctl --peers="http://10.11.150.74:7001" ls

2)hosts 配置

编辑73和74机的 /etc/hosts 文件,在其中添加如下语句:

10.11.150.73 tc--
10.11.150.74 tc--

注意host的取名要规范,如"tc_150_73"这种方式是不正确的,取这个名字的话在后面通过node.json创建节点时会报如下错误:

The Node "tc_150_73" is invalid:metadata.name: invalid value 'tc_150_73': must be a DNS subdomain (at most  characters, matching regex [a-z0-]([-a-z0-]*[a-z0-])?(\.[a-z0-]([-a-z0-]*[a-z0-])?)*): e.g. "example.com"

3)config文件配置

编辑73和74机上的 /etc/kubernetes/config 文件,内容为:

###
# kubernetes system config
#
# The following values are used to configure various aspects of all
# kubernetes services, including
#
# kube-apiserver.service
# kube-controller-manager.service
# kube-scheduler.service
# kubelet.service
# kube-proxy.service
# logging to stderr means we get it in the systemd journal
KUBE_LOGTOSTDERR="--logtostderr=true" # journal message level, is debug
KUBE_LOG_LEVEL="--v=0" # Should this cluster be allowed to run privileged docker containers
KUBE_ALLOW_PRIV="--allow_privileged=false" # How the controller-manager, scheduler, and proxy find the apiserver
KUBE_MASTER="--master=http://tc-150-74:8080"

4)关闭防火墙

systemctl disable iptables-services firewalld
systemctl stop iptables-services firewalld

5)配置apiserver

编辑74主机上的 /etc/kubernetes/apiserver 文件,内容如下:

###
# kubernetes system config
#
# The following values are used to configure the kube-apiserver
# # The address on the local server to listen to.
KUBE_API_ADDRESS="--address=0.0.0.0" # The port on the local server to listen on.
#KUBE_API_PORT="--port=8080" # Port minions listen on
KUBELET_PORT="--kubelet_port=10250" # Comma separated list of nodes in the etcd cluster
KUBE_ETCD_SERVERS="--etcd_servers=http://127.0.0.1:4001" # Address range to use for services
KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16" # default admission control policies
#KUBE_ADMISSION_CONTROL="--admission_control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota" # Add your own!
KUBE_API_ARGS="--insecure-bind-address=0.0.0.0 --insecure-port=8080"

6)配置kubelet

编辑73主机上的 /etc/kubernetes/kubelet 文件,内容如下:

###
# kubernetes kubelet (minion) config # The address for the info server to serve on (set to 0.0.0.0 or "" for all interfaces)
KUBELET_ADDRESS="--address=0.0.0.0" # The port for the info server to serve on
# KUBELET_PORT="--port=10250" # You may leave this blank to use the actual hostname
KUBELET_HOSTNAME="--hostname_override=tc-150-73" # location of the api-server
KUBELET_API_SERVER="--api_servers=http://tc-150-74:8080" # Add your own!
KUBELET_ARGS="--pod-infra-container-image=10.11.150.76:5000/kubernetes/pause:latest"

此处注意 KUBELET_ARGS 中 --pod-infra-container-image 的设置,帮助文档中的说明为:

--pod-infra-container-image="gcr.io/google_containers/pause:0.8.0": The image whose network/ipc namespaces containers in each pod will use.

即需要到 google 提供的一个docker镜像站下载每个pods创建时需要运行的pause基础镜像,由于GreatWall的存在,可将该基础镜像pull下来放到自己的一个registry中再进行下载(本文中放到了76机上的私有registry中)。

7)启动master服务

在74机上创建如下脚本,即以服务形式启动 kube-apiserver,kube-controller-manager 和 kube-scheduler:

#!/bin/bash

for SERVICES in kube-apiserver kube-controller-manager kube-scheduler; do
systemctl restart $SERVICES
systemctl enable $SERVICES
systemctl status $SERVICES -l
done

运行脚本,正常启动会显示如下内容:

   kube-apiserver.service - Kubernetes API Server
Loaded: loaded (/usr/lib/systemd/system/kube-apiserver.service; enabled)
Active: active (running) since 三 -- :: CST; 127ms ago
Docs: https://github.com/GoogleCloudPlatform/kubernetes
Main PID: (kube-apiserver)
CGroup: /system.slice/kube-apiserver.service
└─ /usr/bin/kube-apiserver --logtostderr=true --v= --etcd_servers=http://127.0.0.1:4001 --address=0.0.0.0 --kubelet_port=10250 --allow_privileged=false --service-cluster-ip-range=10.254.0.0/16 --insecure-bind-address=0.0.0.0 --insecure-port=8080 11月 :: tc_150_74 kube-apiserver[]: I1111 ::04.506280 plugins.go:] No cloud provider specified.
11月 :: tc_150_74 kube-apiserver[]: I1111 ::04.506528 master.go:] Node port range unspecified. Defaulting to -.
11月 :: tc_150_74 kube-apiserver[]: I1111 ::04.508417 master.go:] Will report 10.11.150.74 as public IP address.
11月 :: tc_150_74 kube-apiserver[]: [restful] // :: log.go:: [restful/swagger] listing is available at https://10.11.150.74:6443/swaggerapi/
11月 :: tc_150_74 kube-apiserver[]: [restful] // :: log.go:: [restful/swagger] https://10.11.150.74:6443/swaggerui/ is mapped to folder /swagger-ui/
11月 :: tc_150_74 kube-apiserver[]: I1111 ::04.566107 server.go:] Serving securely on 0.0.0.0:
11月 :: tc_150_74 kube-apiserver[]: I1111 ::04.566134 server.go:] Serving insecurely on 0.0.0.0:
11月 :: tc_150_74 kube-apiserver[]: I1111 ::05.347052 server.go:] Using self-signed cert (/var/run/kubernetes/apiserver.crt, /var/run/kubernetes/apiserver.key)
11月 :: tc_150_74 systemd[]: Started Kubernetes API Server.
kube-controller-manager.service - Kubernetes Controller Manager
Loaded: loaded (/usr/lib/systemd/system/kube-controller-manager.service; enabled)
Active: active (running) since 三 -- :: CST; 140ms ago
Docs: https://github.com/GoogleCloudPlatform/kubernetes
Main PID: (kube-controller)
CGroup: /system.slice/kube-controller-manager.service
└─ /usr/bin/kube-controller-manager --logtostderr=true --v= --master=http://tc_150_74:8080 11月 :: tc_150_74 systemd[]: Started Kubernetes Controller Manager.
11月 :: tc_150_74 kube-controller-manager[]: I1111 ::05.516790 plugins.go:] No cloud provider specified.
11月 :: tc_150_74 kube-controller-manager[]: I1111 ::05.516928 nodecontroller.go:] Sending events to api server.
11月 :: tc_150_74 kube-controller-manager[]: E1111 ::05.517089 controllermanager.go:] Failed to start service controller: ServiceController should not be run without a cloudprovider.
kube-scheduler.service - Kubernetes Scheduler Plugin
Loaded: loaded (/usr/lib/systemd/system/kube-scheduler.service; enabled)
Active: active (running) since 三 -- :: CST; 140ms ago
Docs: https://github.com/GoogleCloudPlatform/kubernetes
Main PID: (kube-scheduler)
CGroup: /system.slice/kube-scheduler.service
└─ /usr/bin/kube-scheduler --logtostderr=true --v= --master=http://tc_150_74:8080 11月 :: tc_150_74 systemd[]: Started Kubernetes Scheduler Plugin.

在74机上创建node.json文件,内容如下:

{
"apiVersion": "v1",
"kind": "Node",
"metadata": {
"name": "tc-150-73",
"labels":{ "name": "node-label" }
},
"spec": {
"externalID": "tc-150-73"
}
}

使用如下命令创建临时的节点信息(注意只是记录,不是真正的节点):

kubectl create -f ./node.json

使用 kubectl get nodes 查看会发现已经有如下记录了,说明 apiserver是正常工作的。

NAME           LABELS                    STATUS
tc-150-73 name=node-label Unknown

8)启动node服务

在73机上创建如下脚本,即以服务形式启动 proxy,kubelet和docker:

#!/bin/bash

for SERVICES in kube-proxy kubelet docker; do
systemctl restart $SERVICES
systemctl enable $SERVICES
systemctl status $SERVICES
done

运行脚本,成功启动则显示如下内容:

kube-proxy.service - Kubernetes Kube-Proxy Server
Loaded: loaded (/usr/lib/systemd/system/kube-proxy.service; enabled)
Active: active (running) since 四 -- :: CST; 85ms ago
Docs: https://github.com/GoogleCloudPlatform/kubernetes
Main PID: (kube-proxy)
CGroup: /system.slice/kube-proxy.service
└─ /usr/bin/kube-proxy --logtostderr=true --v= --master=http... 11月 :: tc_150_73 systemd[]: Started Kubernetes Kube-Proxy Server.
kubelet.service - Kubernetes Kubelet Server
Loaded: loaded (/usr/lib/systemd/system/kubelet.service; enabled)
Active: active (running) since 四 -- :: CST; 124ms ago
Docs: https://github.com/GoogleCloudPlatform/kubernetes
Main PID: (kubelet)
CGroup: /system.slice/kubelet.service
└─ /usr/bin/kubelet --logtostderr=true --v= --api_servers=ht... 11月 :: tc_150_73 systemd[]: Started Kubernetes Kubelet Server.
11月 :: tc_150_73 kubelet[]: I1112 ::01.478089 ma..."
11月 :: tc_150_73 kubelet[]: I1112 ::01.479634 fs...r
11月 :: tc_150_73 kubelet[]: f48ee5c424bbed5 major: minor:...]
11月 :: tc_150_73 kubelet[]: I1112 ::01.489689 ma...
11月 :: tc_150_73 kubelet[]: Scheduler:none} ::{Name:dm-...
11月 :: tc_150_73 kubelet[]: : Type:Instruction Level:} ...
11月 :: tc_150_73 kubelet[]: I1112 ::01.529029 ma...}
11月 :: tc_150_73 kubelet[]: I1112 ::01.529852 pl....
Hint: Some lines were ellipsized, use -l to show in full.
docker.service - Docker Application Container Engine
Loaded: loaded (/usr/lib/systemd/system/docker.service; enabled)
Active: active (running) since 四 -- :: CST; 81ms ago
Docs: http://docs.docker.com
Main PID: (docker)
CGroup: /system.slice/docker.service
└─ /usr/bin/docker -d --selinux-enabled --add-registry regist... 11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.4491017..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.4532426..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.4562807..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.6940850..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.6944571..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.6944879..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.6945164...1
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.6953038..."
11月 :: tc_150_73 systemd[]: Started Docker Application Container....
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.7360503..."
Hint: Some lines were ellipsized, use -l to show in full.

此时在74机上运行 kubectl get nodes,如果前面配置一切正常的话node的状态会变成Ready:

NAME        LABELS            STATUS
tc-- name=node-label Ready

无网络centos7中部署kubernetes的更多相关文章

  1. 在CentOS7上部署Kubernetes集群

    在CentOS7上部署Kubernetes集群 文/FCBusquest 2015-12-22 18:36:00 简介 Kubernetes(k8s)是Google开源的大规模容器集群管理系统, 本文 ...

  2. CentOS7中部署Showdoc

    目录 CentOS7中部署Showdoc 前置环境 部署 配置文件 解压安装包 添加启动服务 设置权限 运行安装 界面 CentOS7中部署Showdoc 文:铁乐与猫 前置环境 因为showdoc其 ...

  3. Centos7离线部署kubernetes 1.13集群记录

    一.说明 本篇主要参考kubernetes中文社区的一篇部署文章(CentOS 使用二进制部署 Kubernetes 1.13集群),并做了更详细的记录以备用. 二.部署环境 1.kubernetes ...

  4. Centos7 安装部署Kubernetes(k8s)集群

    目录 一.系统环境 二.前言 三.Kubernetes 3.1 概述 3.2 Kubernetes 组件 3.2.1 控制平面组件 3.2.2 Node组件 四.安装部署Kubernetes集群 4. ...

  5. Docker中部署Kubernetes

    Kubernetes为Google开源的容器管理框架,提供了Docker容器的夸主机.集群管理.容器部署.高可用.弹性伸缩等一系列功能:Kubernetes的设计目标包括使容器集群任意时刻都处于用户期 ...

  6. China Azure中部署Kubernetes(K8S)集群

    目前China Azure还不支持容器服务(ACS),使用名称"az acs create --orchestrator-type Kubernetes -g zymtest -n kube ...

  7. Docker实践(6)—CentOS7上部署Kubernetes

    Kubernetes架构 Kubernetes的整体架构如下: Master为主控节点,上面运行apiserver,scheduler,controller-manager等组件.Minion相当于工 ...

  8. 在CentOS7上部署 Kubernetes集群

    yum -y install  etcd docker  flannel kubenetes 一般会遇到没有k8s源的问题,先 yum update -y 看是否有效,如果还是没用就创建yum 源,再 ...

  9. etcd学习(4)-centos7中部署etcd

    etcd的搭建 前言 单机 集群 创建etcd配置文件 更新etcd系统默认配置 启动 配置ETCD为启动服务 测试下 参考 etcd的搭建 前言 这里记录下如何搭建etcd 单机 在etcd的rel ...

随机推荐

  1. 9.python的布尔类型与流程控制

    布尔类型其实可以算是一种特殊的数字,下面是 help() 函数得到的帮助信息: Help on class bool in module __builtin__: class bool(int) | ...

  2. linux积累

    在多文件中批量替换字符串grep -rl 'windows' ./ | xargs sed -i 's/windows/linux/g'

  3. 一步一步实现Linux设备驱动的Helloworld模块

    学了那么多程序语言,总是有一个Hello world开头,不禁感叹Hello world的强大.呵呵,废话少说,咋们的故事当然要从这个Hello world开始. 先查看自己OS使用的内核版本[don ...

  4. 从此不再惧怕URI编码:JavaScript及C# URI编码详解

    混乱的URI编码 JavaScript中编码有三种方法:escape.encodeURI.encodeURIComponent C#中编码主要方法:HttpUtility.UrlEncode.Serv ...

  5. 【ExtJs】使用Cookie、切换主题和语言

    转自:http://witmax.cn/extjs-cookie-theme-lang.html 使用Cookie:   1 2 3 Ext.state.Manager.setProvider(new ...

  6. CentOs环境下PHP支持PDO_MYSQL

    一.下载相应tgz包: http://pecl.php.net/get/PDO_MYSQL-1.0.2.tgz二.安装开始 解压# tar zxvf PDO_MYSQL-1.0.2.tgz # cd ...

  7. Hive与HBase区别

    对于刚接触大数据的用户来说,要想区分Hive与HBase是有一定难度的.本文将尝试从其各自的定义.特点.限制.应用场景等角度来进行分析,以作抛砖引玉之用. ====Hive是什么?Apache Hiv ...

  8. Rstdio中更换R版本

    1.打开Rstdio,选择Tool --> Global Options.

  9. Python实现ID3(信息增益)

    Python实现ID3(信息增益) 运行环境 Pyhton3 treePlotter模块(画图所需,不画图可不必) matplotlib(如果使用上面的模块必须) 计算过程 st=>start: ...

  10. Java 集合转换(数组、List、Set、Map相互转换)

    转自:http://blog.csdn.net/top_code/article/details/10552827 package com.example.test; import java.util ...