一、spinnaker概述

1、spinnaker是netflix开源的一款云发布CI/CD,其前身是Asgard,spinnaker支持各种部署目标,包括OpenStack、DC/OS、Kubernetes 和 Cloud Foundry等。

2、功能概述
  & 通过灵活和可配置 Pipelines,实现可重复的自动化部署;
  & 提供所有环境的全局视图,可随时查看应用程序在其部署 Pipeline 的状态;
  & 通过一致且可靠的 API ,提供可编程配置;
  & 易于配置、维护和扩展;
  & 具有操作伸缩性;
  & 兼容 Asgard 特性,原用户不用迁移。

3、组件概述


  & Deck:面向用户 UI 界面组件,提供直观简介的操作界面,可视化操作发布部署流程。
  & API: 面向调用 API 组件,我们可以不使用提供的 UI,直接调用 API 操作,由它后台帮我们执行发布等任务。
  & Gate:是 API 的网关组件,可以理解为代理,所有请求由其代理转发。
  & Rosco:是构建 beta 镜像的组件,需要配置 Packer 组件使用。
  & Orca:是核心流程引擎组件,用来管理流程。
  & Igor:是用来集成其他 CI 系统组件,如 Jenkins 等一个组件。
  & Echo:是通知系统组件,发送邮件等信息。
  & Front50:是存储管理组件,需要配置 Redis、Cassandra 等组件使用。
  & Cloud driver 是它用来适配不同的云平台的组件,比如 Kubernetes,Google、AWS EC2、Microsoft Azure 等。
  & Fiat 是鉴权的组件,配置权限管理,支持 OAuth、SAML、LDAP、GitHub teams、Azure groups、 Google Groups 等。

二、部署

1、部署系统

ubuntu   4 核 8G     系统版本:16.04 tls

2、安装docker

选择合适的版本,k8s使用的版本为docker-ce_17.06.

下载docker:
   https://download.docker.com/linux/ubuntu/dists/xenial/pool/test/amd64/

安装docker:

# dpkg -i /data/docker-ce_17.06.2~ce-0~ubuntu-xenial_amd64.deb

配置dockerFQ:
配置自己的shadowsocks+privoxy,参考我的博客:https://www.cnblogs.com/cuishuai/p/8463458.html

# mkdir /etc/systemd/system/docker.service.d/
# cd /etc/systemd/system/docker.service.d/
# cat http-proxy.conf
[Service]
Environment="HTTP_PROXY=http://10.10.23.4:8118" "NO_PROXY=localhost,127.0.0.1,0.0.0.0,10.10.29.3,10.10.25.29,172.11.0.0,172.10.0.0,172.11.0.0/16,172.10.0.0/16,10.,172.,10.10.23.4,10.96.0.0/12,10.244.0.0/16"

# systemctl daemon-reload
# systemctl restart docker

3、使用kubeadm安装k8s

为ubuntu系统换源,国内环境不FQ下载不了,所以需要换一个源。

# cat <<EOF > /etc/apt/sources.list.d/kubernetes.list
deb http://mirrors.ustc.edu.cn/kubernetes/apt kubernetes-xenial main
EOF

# apt-get  update

# apt-get install  kubeadm  kubectl  kubelet  ipvsadm

默认安装的最新版本,我安装的是1.11.2.

可以提前下载需要的镜像:

k8s.gcr.io/kube-proxy-amd64:v1.11.2

k8s.gcr.io/kube-controller-manager-amd64:v1.11.2

k8s.gcr.io/kube-apiserver-amd64:v1.11.2

k8s.gcr.io/kube-scheduler-amd64:v1.11.2

k8s.gcr.io/coredns:1.1.3

k8s.gcr.io/etcd-amd64:3.2.18

k8s.gcr.io/pause:3.1

quay.io/coreos/flannel:v0.10.0-amd64

如果已经配置了FQ,可以直接执行下面的初始化步骤。

初始化k8s:

# kubeadm init --kubernetes-version v1.11.2 --token-ttl 0 \

--pod-network-cidr 10.244.0.0/16

按照提示完成初始化操作,然后设置master可以deploy。

# kubectl taint nodes --all node-role.kubernetes.io/master-

如上图所示则表示启动正常。

4、创建Account和NFS动态存储

首先要搭建一个NFS服务,具体搭建过程参考我的另外一篇博客:https://www.cnblogs.com/cuishuai/p/7798154.html

在现在的系统上安装客户端:

# apt install nfs-kernel-server

设置挂在点:

# mount -t nfs  10.10.29.4:/data/opv  /data/opv -o proto=tcp -o nolock

##10.10.29.4:/data/opv 的/data/opv是nfs服务的共享目录,  后面的/data/opv是本机的挂在点。

1)创建account用于helm部署服务

##创建tiller用户,用于helm安装授权
# cat rbac.yaml
apiVersion: v1
kind: ServiceAccount
metadata:
   name: tiller
   namespace: default
---
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
   name: tiller
roleRef:
   apiGroup: rbac.authorization.k8s.io
   kind: ClusterRole
   name: cluster-admin
subjects:
   - kind: ServiceAccount
     name: tiller
     namespace: default

# kubectl  create -f  rbac.yaml

##创建default用户,用于spinnaker安装授权
# cat default-rbac.yaml
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
   name: default
roleRef:
   apiGroup: rbac.authorization.k8s.io
   kind: ClusterRole
   name: cluster-admin
subjects:
   - kind: ServiceAccount
     name: default
     namespace: default

# kubectl  create -f  default-rbac.yaml

2)创建NFS动态存储

!创建用户授权

# cat serviceaccount.yaml
apiVersion: v1
kind: ServiceAccount
metadata:
   name: nfs-provisioner

# cat clusterrole.yaml
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
   name: nfs-provisioner-runner
rules:
   - apiGroups: [""]
      resources: ["persistentvolumes"]
      verbs: ["get", "list", "watch", "create", "delete"]
   - apiGroups: [""]
      resources: ["persistentvolumeclaims"]
      verbs: ["get", "list", "watch", "update"]
   - apiGroups: ["storage.k8s.io"]
      resources: ["storageclasses"]
      verbs: ["get", "list", "watch"]
   - apiGroups: [""]
      resources: ["events"]
      verbs: ["watch", "create", "update", "patch"]
   - apiGroups: [""]
      resources: ["services", "endpoints"]
      verbs: ["get"]
   - apiGroups: ["extensions"]
      resources: ["podsecuritypolicies"]
      resourceNames: ["nfs-provisioner"]
      verbs: ["use"]

# cat clusterrolebinding.yaml
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
   name: run-nfs-provisioner
subjects:
   - kind: ServiceAccount
     name: nfs-provisioner
     namespace: default
roleRef:
   kind: ClusterRole
   name: nfs-provisioner-runner
   apiGroup: rbac.authorization.k8s.io

# kubectl create -f serviceaccount.yaml -f clusterrole.yaml -f clusterrolebinding.yaml

!创建deployment

# cat deployment.yaml
kind: Deployment
apiVersion: extensions/v1beta1
metadata:
   name: nfs-client-provisioner
spec:
   replicas: 1
   strategy:
   type: Recreate
   template:
      metadata:
         labels:
            app: nfs-client-provisioner
      spec:
         serviceAccount: nfs-provisioner
         containers:
            - name: nfs-client-provisioner
               image: registry.cn-hangzhou.aliyuncs.com/open-ali/nfs-client-provisioner
               volumeMounts:
                  - name: nfs-client-root
mountPath: /persistentvolumes
   env:
      - name: PROVISIONER_NAME
         value: fuseim.pri/ifs
      - name: NFS_SERVER
         value: 10.10.29.4
      - name: NFS_PATH
         value: /data/opv
   volumes:
      - name: nfs-client-root
         nfs:
            server: 10.10.29.4
            path: /data/opv

!创建storageclass

# cat storageclass.yaml
apiVersion: storage.k8s.io/v1beta1
kind: StorageClass
metadata:
   name: managed-nfs-storage
provisioner: fuseim.pri/ifs

# kubectl create -f deployment.yaml -f storageclass.yaml

5、安装helm

下载相应的二进制安装包

https://github.com/helm/helm/releases

解压加入到系统路径:

#  wget https://storage.googleapis.com/kubernetes-helm/helm-v2.10.0-linux-amd64.tar.gz

# tar xf helm-v2.10.0-linux-amd64.tar.gz

# cp helm  /usr/local/bin

初始化helm,安装tiller

# helm init --upgrade --service-account tiller --tiller-namespace default -i registry.cn-hangzhou.aliyuncs.com/google_containers/tiller:v2.10.0 --stable-repo-url https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts

官网下载最新的charts。不要用aliyun的,版本太低,会报错。

https://github.com/helm/charts/tree/master/stable/spinnaker

修改charts里的storageclass为上面自己定义的:managed-nfs-storage

root@skr:/data/spinnaker# ls charts/
jenkins minio redis

1)修改三个目录下的values.yaml文件,将storageclass/Storageclass名称修改为上面创建的managed-nfs-storage

2)修改spinnaker目录下的values.yaml文件,将minio的imageTAG修改成和charts/minio目录下的values.yaml文件一样的。

#vim  spinnaker/values.yaml

minio:
enabled: true
imageTag: RELEASE.2018-03-16T22-52-12Z

# vim spinnaker/charts/minio/values.yaml

image:
repository: minio/minio
tag: RELEASE.2018-03-16T22-52-12Z

定义自己的docker registry地址:
#vim spinnaker/values.yaml
accounts:
- name: dockerhub
   address: https://index.docker.io

address修改为自己的registry地址

3)修改spinnaker目录下的values.yaml文件,修改kubeConfig

kubectl create secret generic kubeconfig --from-file=/root/.kube/config

kubeConfig:
enabled: true
secretName: kubeconfig
secretKey: config
# List of contexts from the kubeconfig to make available to Spinnaker
contexts:
- kubernetes-admin@kubernetes

6、安装spinnaker:

在spinnaker目录下面执行:
# helm install -n spinnaker --tiller-namespace default ./ -f values.yaml --namespace default

如果部署出问题了,可以使用如下命令删掉本次部署:

# helm del --purge --tiller-namespace default spinnaker

7、访问

配置访问deck:
查看pod的服务端口:
# kubectl get pods spinnaker-spinnaker-deck-5d87d8d9f9-lswwv --template='{{(index (index .spec.containers 0).ports 0).containerPort}}{{"\n"}}'

映射端口到本地,127.0.0.1:port可以访问服务。当然可以部署一个ingress代理访问,这里只是测试环境。

# kubectl port-forward spinnaker-spinnaker-deck-5d87d8d9f9-lswwv 9000:9000

由于这样暴漏的服务监听的127.0.0.1,所以为了使用服务,需要自己搞一个服务代理。这里我就使用nginx:

##spinnaker-spinnaker-deck-5d87d8d9f9-lswwv  是我的deck的pod的名称,这里需要写自己的。

删除删不掉的pod:
# kubectl delete pod pod-name --grace-period 0 --force

K8s之spinnaker的更多相关文章

  1. spinnaker自动发布k8s部署应用<一>

    一.准备环境 !docker-ce---17.06.2-ce !k8s集群----1.11.1 !helm部署工具---helm-v2.10.0 !spinnaker-charts---spinnak ...

  2. K8S(16)集成实战-使用spinnaker进行自动化部署

    K8s集成实战-使用spinnaker进行自动化部署 1 spinnaker概述和选型 1.1 概述 1.1.1 主要功能 Spinnaker是一个开源的多云持续交付平台,提供快速.可靠.稳定的软件变 ...

  3. 如何查看k8s存在etcd中的数据(转)

    原文 https://yq.aliyun.com/articles/561888 一直有这个冲动, 想知道kubernetes往etcd里放了哪些数据,是如何组织的. 能看到,才有把握知道它的实现和细 ...

  4. 利用Spinnaker创建持续交付流水线

    在Pivotal Container Service (PKS)上部署软件的方法多种多样,本文重点介绍如何使用Spinnaker在PKS(或任何Kubernetes群集)上进行持续交付. Pivota ...

  5. 基于 K8s 做应用发布的工具那么多, 阿里为啥选择灰姑娘般的 Tekton ?

    作者 | 邓洪超,阿里云容器平台工程师, Kubernetes Operator 第二人,云原生应用标准交付与管理领域知名技术专家   导读:近年来,越来越多专门给 Kubernetes 做应用发布的 ...

  6. (转)初试 Netflix 开源持续云交付平台 Spinnaker

    目录 Spinnaker 介绍 环境.软件准备 安装 Development Spinnaker 配置依赖环境 配置并安装 Spinnaker 演示 Spinnaker Pipeline 演示 Spi ...

  7. 【Kubernetes】K8S网络方案--最近在看的

    K8S网络-最近在看的 Create a Minikube cluster - Kubernetes Kubernetes Documentation - Kubernetes Kubernetes ...

  8. 【Kubernetes】K8S 网络隔离 方案

    参考资料: K8S-网络隔离参考 OpenContrail is an open source network virtualization platform for the cloud. – Kub ...

  9. k8s入门系列之guestbook快速部署

    k8s集群以及一些扩展插件已经安装完毕,本篇文章介绍一下如何在k8s集群上快速部署guestbook应用. •实验环境为集群:master(1)+node(4),详细内容参考<k8s入门系列之集 ...

随机推荐

  1. [C#]“正在终止线程”的问题

    在C#中启用线程后,如果试图使用Abort方法来终止线程,那么必定会抛出“正在终止线程”的异常,一开始我也想过如何来避免这种异常出现,花了不少气力,但最后发现全是徒劳. 原因是一个正在运行的线程被终止 ...

  2. day06作业---字典循环

    '''1.1使⽤循环打印以下效果: ***************''' for a in range(1,6): print(a*'*') '''1.2: ***** **** *** ** * ' ...

  3. 关于Code Review

    为了保证代码质量,我们团队内部一直在推行Code Review.现在Code Review帮我们发现了很多代码的问题,提升了代码的可读性和质量,同时我们在Code Review上也花费了很多时间,有些 ...

  4. Hadoop3集群搭建之——hive添加自定义函数UDTF (一行输入,多行输出)

    上篇: Hadoop3集群搭建之——虚拟机安装 Hadoop3集群搭建之——安装hadoop,配置环境 Hadoop3集群搭建之——配置ntp服务 Hadoop3集群搭建之——hive安装 Hadoo ...

  5. 用模糊查询like语句时如果要查是否包含%字符串该如何写

  6. Explain结果解读与实践

    MySQL的EXPLAIN命令用于SQL语句的查询执行计划(QEP).这条命令的输出结果能够让我们了解MySQL 优化器是如何执行SQL 语句的.这条命令并没有提供任何调整建议,但它能够提供重要的信息 ...

  7. Mysql中Left Join Right Join Inner Join where条件的比较

    建立一对多的表 company 和 employee company表 id      name      address 1baidu北京 2huawei深圳 3jingdong北京 4tengxu ...

  8. 解决编译错误:cc: Internal error: Killed (program cc1)

    错误现象: cc: Internal error: Killed (program cc1) ... 大体上是因为内存不足,临时使用交换分区来解决吧 sudo mkswap /swapfile sud ...

  9. 工作中的小tips(持续更新)

    1.在工作的时候一定要留下痕迹,这样即使乙方抵赖,或者说领导认为你没干活的时候留下证据(电话没有微信,邮件之类的文字类有效果) 2.每天晚上下班之前将一天的工作总结一下,把第二天的工作给罗列出来,以方 ...

  10. Java案例:超市库存管理系统

    案例介绍: 模拟真实的库存管理逻辑,完成超市管理系统的日常功能实现,见下图 案例需求分析: 根据案例介绍,我们进行分析,首先需要一个功能菜单,然后输入功能序号后,调用序号对应的功能方法,实现想要的操作 ...