无网络centos7中部署kubernetes
本文提供的kubernetes1.1实际为kubernetes0.8,最新kubernetes部署方式见下一篇文章:centos下kubernetes+flannel部署。
一、部署环境信息:
1)master主机
IP:10.11.150.74;主机名:tc_150_74;DNS配置中的主机名:tc-150-74;内核:Linux version 3.10.0-229.11.1.el7.x86_64
2)node主机
IP:10.11.150.73;主机名:tc_150_73;DNS配置中的主机名:tc-150-73;内核:Linux version 3.10.0-123.el7.x86_64
部署过程主要参考kubernetes的官网(戳这里)。
二、准备工作:
1)各个rpm包下载(百度网盘备份):cadvisor-0.14.0,docker-1.7.1,etcd-0.4.6,kubernetes-client-1.1.0,kubernetes-master-1.1.0,kubernetes-node-1.1.0,etcdctl。主要下载源为fedora的镜像源(戳这里,戳这里)。
2)在73和74机上安装docker。master上安装docker非必需,但docker是安装kubernetes-node的依赖项,所以如果需要安装kubernetes-node则必须安装docker。官网上建议使用docker-1.6.2和docker-1.7.1,在实际安装过程中发现,非1.7.1版本的docker下安装kubernetes-node会出现冲突错误。如安装docker-1.8.2之后再安装kubernetes-node时出现如下错误:
错误:docker-engine conflicts with docker-1.8.-.el7.centos.x86_64
安装方式为:
sudo yum localinstall docker-1.7.-.el7.x86_64.rpm -y
如果安装docker时出现类似如下错误:
错误:软件包:docker-1.7.-.el7.centos.x86_64 (/docker-1.7.-.el7.centos.x86_64)
需要:docker-selinux >= 1.7.-.el7.centos
可用: docker-selinux-1.7.-.el7.x86_64 (7ASU1-updates)
docker-selinux = 1.7.-.el7
则到需要先下载安装对应版本的docker-selinux(下载戳这里)。
3)安装etcd
sudo yum localinstall etcd-0.4.-.el7.centos.x86_64.rpm -y
etcd只要在master主机上安装即可。
4)安装cadvisor(非必须)
sudo yum localinstall cadvisor-0.14.-.el7.x86_64.rpm -y
只需要在node主机上安装即可。
5)安装kubernetes
需要先安装client再安装master和node。
sudo yum localinstall kubernetes-client-1.1.-0.17.git388061f.fc23.x86_64.rpm -y
sudo yum localinstall kubernetes-master-1.1.-0.17.git388061f.fc23.x86_64.rpm -y
sudo yum localinstall kubernetes-node-1.1.-0.17.git388061f.fc23.x86_64.rpm -y
三、配置与启动服务
1)etcd的启动
sudo etcd -peer-addr 10.11.150.74: -addr 10.11.150.74: -peer-bind-addr 0.0.0.0: -bind-addr 0.0.0.0: &
首先必须确保etcd启动成功且能被正常访问,否则启动 kube-apiserver时会出现如下错误:
I1111 ::42.451759 plugins.go:] No cloud provider specified.
I1111 ::42.452027 master.go:] Node port range unspecified. Defaulting to -.
I1111 ::42.453609 master.go:] Will report 10.11.150.74 as public IP address.
[restful] // :: log.go:: [restful/swagger] listing is available at https://10.11.150.74:6443/swaggerapi/
[restful] // :: log.go:: [restful/swagger] https://10.11.150.74:6443/swaggerui/ is mapped to folder /swagger-ui/
F1111 ::52.516153 controller.go:] Unable to perform initial IP allocation check: unable to refresh the service IP block: no kind "RangeAllocation" is registered for version "v1beta3"
在73和74机上使用etcdctl查看etcd的运行状态,执行如下命令,如果正常则返回已创建的表结构。
./etcdctl --peers="http://10.11.150.74:7001" ls
2)hosts 配置
编辑73和74机的 /etc/hosts 文件,在其中添加如下语句:
10.11.150.73 tc--
10.11.150.74 tc--
注意host的取名要规范,如"tc_150_73"这种方式是不正确的,取这个名字的话在后面通过node.json创建节点时会报如下错误:
The Node "tc_150_73" is invalid:metadata.name: invalid value 'tc_150_73': must be a DNS subdomain (at most characters, matching regex [a-z0-]([-a-z0-]*[a-z0-])?(\.[a-z0-]([-a-z0-]*[a-z0-])?)*): e.g. "example.com"
3)config文件配置
编辑73和74机上的 /etc/kubernetes/config 文件,内容为:
###
# kubernetes system config
#
# The following values are used to configure various aspects of all
# kubernetes services, including
#
# kube-apiserver.service
# kube-controller-manager.service
# kube-scheduler.service
# kubelet.service
# kube-proxy.service
# logging to stderr means we get it in the systemd journal
KUBE_LOGTOSTDERR="--logtostderr=true" # journal message level, is debug
KUBE_LOG_LEVEL="--v=0" # Should this cluster be allowed to run privileged docker containers
KUBE_ALLOW_PRIV="--allow_privileged=false" # How the controller-manager, scheduler, and proxy find the apiserver
KUBE_MASTER="--master=http://tc-150-74:8080"
4)关闭防火墙
systemctl disable iptables-services firewalld
systemctl stop iptables-services firewalld
5)配置apiserver
编辑74主机上的 /etc/kubernetes/apiserver 文件,内容如下:
###
# kubernetes system config
#
# The following values are used to configure the kube-apiserver
# # The address on the local server to listen to.
KUBE_API_ADDRESS="--address=0.0.0.0" # The port on the local server to listen on.
#KUBE_API_PORT="--port=8080" # Port minions listen on
KUBELET_PORT="--kubelet_port=10250" # Comma separated list of nodes in the etcd cluster
KUBE_ETCD_SERVERS="--etcd_servers=http://127.0.0.1:4001" # Address range to use for services
KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16" # default admission control policies
#KUBE_ADMISSION_CONTROL="--admission_control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota" # Add your own!
KUBE_API_ARGS="--insecure-bind-address=0.0.0.0 --insecure-port=8080"
6)配置kubelet
编辑73主机上的 /etc/kubernetes/kubelet 文件,内容如下:
###
# kubernetes kubelet (minion) config # The address for the info server to serve on (set to 0.0.0.0 or "" for all interfaces)
KUBELET_ADDRESS="--address=0.0.0.0" # The port for the info server to serve on
# KUBELET_PORT="--port=10250" # You may leave this blank to use the actual hostname
KUBELET_HOSTNAME="--hostname_override=tc-150-73" # location of the api-server
KUBELET_API_SERVER="--api_servers=http://tc-150-74:8080" # Add your own!
KUBELET_ARGS="--pod-infra-container-image=10.11.150.76:5000/kubernetes/pause:latest"
此处注意 KUBELET_ARGS 中 --pod-infra-container-image 的设置,帮助文档中的说明为:
--pod-infra-container-image="gcr.io/google_containers/pause:0.8.0": The image whose network/ipc namespaces containers in each pod will use.
即需要到 google 提供的一个docker镜像站下载每个pods创建时需要运行的pause基础镜像,由于GreatWall的存在,可将该基础镜像pull下来放到自己的一个registry中再进行下载(本文中放到了76机上的私有registry中)。
7)启动master服务
在74机上创建如下脚本,即以服务形式启动 kube-apiserver,kube-controller-manager 和 kube-scheduler:
#!/bin/bash for SERVICES in kube-apiserver kube-controller-manager kube-scheduler; do
systemctl restart $SERVICES
systemctl enable $SERVICES
systemctl status $SERVICES -l
done
运行脚本,正常启动会显示如下内容:
kube-apiserver.service - Kubernetes API Server
Loaded: loaded (/usr/lib/systemd/system/kube-apiserver.service; enabled)
Active: active (running) since 三 -- :: CST; 127ms ago
Docs: https://github.com/GoogleCloudPlatform/kubernetes
Main PID: (kube-apiserver)
CGroup: /system.slice/kube-apiserver.service
└─ /usr/bin/kube-apiserver --logtostderr=true --v= --etcd_servers=http://127.0.0.1:4001 --address=0.0.0.0 --kubelet_port=10250 --allow_privileged=false --service-cluster-ip-range=10.254.0.0/16 --insecure-bind-address=0.0.0.0 --insecure-port=8080 11月 :: tc_150_74 kube-apiserver[]: I1111 ::04.506280 plugins.go:] No cloud provider specified.
11月 :: tc_150_74 kube-apiserver[]: I1111 ::04.506528 master.go:] Node port range unspecified. Defaulting to -.
11月 :: tc_150_74 kube-apiserver[]: I1111 ::04.508417 master.go:] Will report 10.11.150.74 as public IP address.
11月 :: tc_150_74 kube-apiserver[]: [restful] // :: log.go:: [restful/swagger] listing is available at https://10.11.150.74:6443/swaggerapi/
11月 :: tc_150_74 kube-apiserver[]: [restful] // :: log.go:: [restful/swagger] https://10.11.150.74:6443/swaggerui/ is mapped to folder /swagger-ui/
11月 :: tc_150_74 kube-apiserver[]: I1111 ::04.566107 server.go:] Serving securely on 0.0.0.0:
11月 :: tc_150_74 kube-apiserver[]: I1111 ::04.566134 server.go:] Serving insecurely on 0.0.0.0:
11月 :: tc_150_74 kube-apiserver[]: I1111 ::05.347052 server.go:] Using self-signed cert (/var/run/kubernetes/apiserver.crt, /var/run/kubernetes/apiserver.key)
11月 :: tc_150_74 systemd[]: Started Kubernetes API Server.
kube-controller-manager.service - Kubernetes Controller Manager
Loaded: loaded (/usr/lib/systemd/system/kube-controller-manager.service; enabled)
Active: active (running) since 三 -- :: CST; 140ms ago
Docs: https://github.com/GoogleCloudPlatform/kubernetes
Main PID: (kube-controller)
CGroup: /system.slice/kube-controller-manager.service
└─ /usr/bin/kube-controller-manager --logtostderr=true --v= --master=http://tc_150_74:8080 11月 :: tc_150_74 systemd[]: Started Kubernetes Controller Manager.
11月 :: tc_150_74 kube-controller-manager[]: I1111 ::05.516790 plugins.go:] No cloud provider specified.
11月 :: tc_150_74 kube-controller-manager[]: I1111 ::05.516928 nodecontroller.go:] Sending events to api server.
11月 :: tc_150_74 kube-controller-manager[]: E1111 ::05.517089 controllermanager.go:] Failed to start service controller: ServiceController should not be run without a cloudprovider.
kube-scheduler.service - Kubernetes Scheduler Plugin
Loaded: loaded (/usr/lib/systemd/system/kube-scheduler.service; enabled)
Active: active (running) since 三 -- :: CST; 140ms ago
Docs: https://github.com/GoogleCloudPlatform/kubernetes
Main PID: (kube-scheduler)
CGroup: /system.slice/kube-scheduler.service
└─ /usr/bin/kube-scheduler --logtostderr=true --v= --master=http://tc_150_74:8080 11月 :: tc_150_74 systemd[]: Started Kubernetes Scheduler Plugin.
在74机上创建node.json文件,内容如下:
{
"apiVersion": "v1",
"kind": "Node",
"metadata": {
"name": "tc-150-73",
"labels":{ "name": "node-label" }
},
"spec": {
"externalID": "tc-150-73"
}
}
使用如下命令创建临时的节点信息(注意只是记录,不是真正的节点):
kubectl create -f ./node.json
使用 kubectl get nodes 查看会发现已经有如下记录了,说明 apiserver是正常工作的。
NAME LABELS STATUS
tc-150-73 name=node-label Unknown
8)启动node服务
在73机上创建如下脚本,即以服务形式启动 proxy,kubelet和docker:
#!/bin/bash for SERVICES in kube-proxy kubelet docker; do
systemctl restart $SERVICES
systemctl enable $SERVICES
systemctl status $SERVICES
done
运行脚本,成功启动则显示如下内容:
kube-proxy.service - Kubernetes Kube-Proxy Server
Loaded: loaded (/usr/lib/systemd/system/kube-proxy.service; enabled)
Active: active (running) since 四 -- :: CST; 85ms ago
Docs: https://github.com/GoogleCloudPlatform/kubernetes
Main PID: (kube-proxy)
CGroup: /system.slice/kube-proxy.service
└─ /usr/bin/kube-proxy --logtostderr=true --v= --master=http... 11月 :: tc_150_73 systemd[]: Started Kubernetes Kube-Proxy Server.
kubelet.service - Kubernetes Kubelet Server
Loaded: loaded (/usr/lib/systemd/system/kubelet.service; enabled)
Active: active (running) since 四 -- :: CST; 124ms ago
Docs: https://github.com/GoogleCloudPlatform/kubernetes
Main PID: (kubelet)
CGroup: /system.slice/kubelet.service
└─ /usr/bin/kubelet --logtostderr=true --v= --api_servers=ht... 11月 :: tc_150_73 systemd[]: Started Kubernetes Kubelet Server.
11月 :: tc_150_73 kubelet[]: I1112 ::01.478089 ma..."
11月 :: tc_150_73 kubelet[]: I1112 ::01.479634 fs...r
11月 :: tc_150_73 kubelet[]: f48ee5c424bbed5 major: minor:...]
11月 :: tc_150_73 kubelet[]: I1112 ::01.489689 ma...
11月 :: tc_150_73 kubelet[]: Scheduler:none} ::{Name:dm-...
11月 :: tc_150_73 kubelet[]: : Type:Instruction Level:} ...
11月 :: tc_150_73 kubelet[]: I1112 ::01.529029 ma...}
11月 :: tc_150_73 kubelet[]: I1112 ::01.529852 pl....
Hint: Some lines were ellipsized, use -l to show in full.
docker.service - Docker Application Container Engine
Loaded: loaded (/usr/lib/systemd/system/docker.service; enabled)
Active: active (running) since 四 -- :: CST; 81ms ago
Docs: http://docs.docker.com
Main PID: (docker)
CGroup: /system.slice/docker.service
└─ /usr/bin/docker -d --selinux-enabled --add-registry regist... 11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.4491017..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.4532426..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.4562807..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.6940850..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.6944571..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.6944879..."
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.6945164...1
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.6953038..."
11月 :: tc_150_73 systemd[]: Started Docker Application Container....
11月 :: tc_150_73 docker[]: time="2015-11-12T13:30:03.7360503..."
Hint: Some lines were ellipsized, use -l to show in full.
此时在74机上运行 kubectl get nodes,如果前面配置一切正常的话node的状态会变成Ready:
NAME LABELS STATUS
tc-- name=node-label Ready
无网络centos7中部署kubernetes的更多相关文章
- 在CentOS7上部署Kubernetes集群
在CentOS7上部署Kubernetes集群 文/FCBusquest 2015-12-22 18:36:00 简介 Kubernetes(k8s)是Google开源的大规模容器集群管理系统, 本文 ...
- CentOS7中部署Showdoc
目录 CentOS7中部署Showdoc 前置环境 部署 配置文件 解压安装包 添加启动服务 设置权限 运行安装 界面 CentOS7中部署Showdoc 文:铁乐与猫 前置环境 因为showdoc其 ...
- Centos7离线部署kubernetes 1.13集群记录
一.说明 本篇主要参考kubernetes中文社区的一篇部署文章(CentOS 使用二进制部署 Kubernetes 1.13集群),并做了更详细的记录以备用. 二.部署环境 1.kubernetes ...
- Centos7 安装部署Kubernetes(k8s)集群
目录 一.系统环境 二.前言 三.Kubernetes 3.1 概述 3.2 Kubernetes 组件 3.2.1 控制平面组件 3.2.2 Node组件 四.安装部署Kubernetes集群 4. ...
- Docker中部署Kubernetes
Kubernetes为Google开源的容器管理框架,提供了Docker容器的夸主机.集群管理.容器部署.高可用.弹性伸缩等一系列功能:Kubernetes的设计目标包括使容器集群任意时刻都处于用户期 ...
- China Azure中部署Kubernetes(K8S)集群
目前China Azure还不支持容器服务(ACS),使用名称"az acs create --orchestrator-type Kubernetes -g zymtest -n kube ...
- Docker实践(6)—CentOS7上部署Kubernetes
Kubernetes架构 Kubernetes的整体架构如下: Master为主控节点,上面运行apiserver,scheduler,controller-manager等组件.Minion相当于工 ...
- 在CentOS7上部署 Kubernetes集群
yum -y install etcd docker flannel kubenetes 一般会遇到没有k8s源的问题,先 yum update -y 看是否有效,如果还是没用就创建yum 源,再 ...
- etcd学习(4)-centos7中部署etcd
etcd的搭建 前言 单机 集群 创建etcd配置文件 更新etcd系统默认配置 启动 配置ETCD为启动服务 测试下 参考 etcd的搭建 前言 这里记录下如何搭建etcd 单机 在etcd的rel ...
随机推荐
- flask程序部署在openshift上的一些注意事项
https://www.openshift.com/blogs/how-to-install-and-configure-a-python-flask-dev-environment-deploy-t ...
- Huffman树的编码译码
上个学期做的课程设计,关于Huffman树的编码译码. 要求: 输入Huffman树各个叶结点的字符和权值,建立Huffman树并执行编码操作 输入一行仅由01组成的电文字符串,根据建立的Huffma ...
- 成长记录 if语句输出 由大到小的数字
#include<stdio.h> void main() { float a,b,c,d,e,f,g,t; scanf("%f,%f,%f,%f,%f,%f,%f", ...
- 分布式缓存Memcached
分布式缓存服务器,既然用到数据缓存很明显就是想高效性的获取数据,大容量的存储数据.为了可以缓存大量的数据以及可以高效获取数据,那么分布式缓存数据库就要解决数据可以水平线性扩展,这样可以扩大数据容 ...
- Android内存管理机制
相信一步步走过来的Android从业者,每个人都会遇到OOM的情况.如何避免和防范OOM的出现,对于每一个程序员来说确实是一门必不可少的能力. 今天我们就谈谈在Android平台下内存的管理之道,开始 ...
- 权重轮询调度算法(Weighted Round-Robin Scheduling)-C#实现
在多台机器实现负载均衡的时候,存在调度分配的问题. 如果服务器的配置的处理能力都一致的话,平均轮询分配可以直接解决问题,然而有些时候机器的处理能力是不一致的. 假如有2台机器 A和B , A的处理能力 ...
- Chr()和chrb()的含义(转)
http://blog.csdn.net/cunxiyuan108/article/details/5989701 Chr(charcode) 必要的 charcode 参数是一个用来识别某字符的 L ...
- VBS基础篇 - 常用函数
Option Explicit '*********************************Date/Time函数******************************* 'CDate函 ...
- CS小分队第一阶段冲刺站立会议(5月6日)
冲刺阶段第一天 今日任务:完成游戏2048退出自动保存和进入自动读取功能,完善其他功能.
- TF-IDF与余弦相似性的应用(一):自动提取关键词
这个标题看上去好像很复杂,其实我要谈的是一个很简单的问题. 有一篇很长的文章,我要用计算机提取它的关键词(Automatic Keyphrase extraction),完全不加以人工干预,请问怎样才 ...