k8s
  • Initial page
  • 序言
  • 前言
    • 发展历史
    • CNCF - 云原生计算基金会简介
    • Kubernetes与云原生应用的概念
  • 概念与原理
    • 基本概念总结
    • 开放接口
      • CRI - Container Runtime Interface
      • CNI - Container Network Interface
      • CSI - Container Storage Interface
    • 核心概念与原理
      • Kubernetes简介
      • Kubernetes架构与原理
      • 核心组件
      • 设计理念
      • 核心组件原理
        • etcd概念与原理
          • Etcd基于RAFT的一致性
          • Etcd v2 与 v3存储
        • kube-apiserver
        • kube-scheduler
        • kube-Controller Manager
        • Kubelet
        • kubectl常用命令
      • kubectl
      • kube-proxy
      • IPVS负载均衡
      • kube-dns
      • Federation-集群联邦
      • kubeadm
    • 资源对象与基本概念解析
    • 资源对象
      • Pod
        • Pod概述
        • Pod解析
        • Pod 的生命周期
        • 探针
        • Init 容器
        • Pause容器
        • Pod 安全策略
        • Pod hook
        • Pod Preset
        • pod其他设置
        • Pod中断与PDB
    • Kubernetes中的网络
      • 图解Kubernetes网络(一)
      • 图解Kubernetes网络(二)
      • 图解Kubernetes网络(三)
      • calico
      • flannel
    • 转发K8S后端服务的四种方式
    • 集群资源对象
      • Node
      • Namespace
      • Label
      • Annotation
      • Taint和Toleration(污点和容忍
      • 垃圾收集
      • Autoscaling
      • Horizontal Pod Autoscaling
        • Metrics-Server
        • Heapster
      • ReplicationController和ReplicaSet
    • 控制器资源对象
      • CronJob
      • Job
      • DaemonSet
      • Deployment
      • StatefulSet
    • 服务发现-资源对象
      • DNS原理讲解
      • Ingress 选型
      • Service
      • Ingress
    • 存储对象
      • ConfigMap
      • Volume
      • Persistent Volume(持久化卷)
      • StorageClass
      • 本地持久化存储
      • Secret
    • 策略对象
      • Resource Quota
      • SecurityContext
    • 身份对象
      • 认证
      • Service Account
      • RBAC——基于角色的访问控制
      • 准入控制
      • Network Policy
    • 资源调度
      • QoS(服务质量等级)
  • 插件扩展
    • Kubernetes的CI/CD
    • Dashboard
    • CoreDNS
    • 监控
      • 概述
      • 第1章 采集
        • Probes
        • Docker Stats
        • cAdvisor
        • Heapster
          • HPA
        • metrics-server
        • custom metrics自定义指标
        • kube-state-metrics
        • node-exporter
        • Prometheus
          • go 自定义metric
          • 本地存储
          • Prometheus概述
          • Prometheus基本架构
          • Prometheus部署方案
          • Prometheus的配置与服务发现
          • PromQL查询解析
          • Prometheus数据可视化
          • Prometheus存储机制
        • Sysdig
        • Untitled
      • 自定义监控
      • Custom-Metrics及Prometheus监控系统
      • grafana各种类型监控-实用
    • 日志
    • 存储
      • Kubernetes Ceph 工作原理详解
    • Metrics
    • GPU
    • Cluster AutoScaler
    • CI/CD
      • 基于DOCKER的CI工具—DRONE
      • DRONE安装指南
      • 如何使用DRONE
      • Drone
      • Jenkins
        • jenkins 集成 keycloak 认证
    • 50个免费的Kubernetes工具盘点
      • Kube集群部署工具
      • 监控工具
      • 测试工具
      • 安全工具
      • 实用的CLI工具
      • 开发工具
      • 无服务器/函数工具
      • 原生服务发现
      • 原生可视化与控制
    • Untitled
  • 领域应用
    • Istio
      • Helm安装
      • 安装并试用Istio service mesh
      • 示例应用部署
      • Bookinfo 应用-
      • 配置请求的路由规则
      • 故障注入
      • 流量转移
      • Istio流量管理实现机制深度解析
      • istio:监控能力介绍
      • Istio 04:Istio性能及扩展性介绍
      • Untitled
  • 实践
    • 大规模集群
    • 高可用
  • k8s运维排查
    • 常用命令
    • Kubernetes之YAML文件
      • yaml文件例子--pod
      • yaml文件例子--rc
    • Kubernetes运维
      • 集群管理
      • 集群与应用监控
      • 日志收集与管理
      • 常见问题定位
      • 权限管理RBAC
    • 排错概览
    • 集群排错
      • kubernetes集群管理常用命令一
    • Pod 排错
    • 网络排错
      • 容器内抓包定位网络问题
    • PV 排错
    • Windows 排错
    • 云平台排错
    • 集群安装脚本
    • 排错工具
    • 常见问题
      • k8s故障解决干货文档链接
      • 记一次Docker/Kubernetes上无法解释的连接超时原因探寻之旅
      • service没有负载均衡
      • kubernetes集群etcd空间配额2G的坑优化
    • K8S--100问
      • 解决 Docker 日志文件太大的问题
      • Kubernetes集群里容器之间的通讯方式
      • k8s 优化
      • lxcfs 在容器内显示容器的 CPU、内存状态
      • kubectl 创建 Pod流程
      • k8s网络-iptables
      • k8s底层网络原理
      • 网络排查
      • kubectl top 和 cadvisor metric ,docker state不一致的问题
      • 容器挂载数据卷的几种情况
      • 容器的终止流程
      • Kubernetes 中如何保证优雅地停止 Pod
      • K8S的apiVersion
      • 如何在Pod中执行宿主机上的命令
      • 创建 Pod 流程
      • k8s主要组件说明
      • 节点网络规划
      • Deployment管理方式
      • pod的分配方式
  • 深入浅出k8s
    • 说明
    • k8s发布策略介绍
    • oom kill原理讲解
    • Kubernetes 的架构设计与实现原理
  • 附录
    • CKA认证
    • 生态圈
    • 资讯快报
      • 2018态势回顾与2019年前景展望
      • Untitled
    • 学习资源
    • 参考文档
    • Kubernetes版本更新日志
      • Kubernetes 1.14 更新日志
      • Kubernetes 1.13 更新日志
      • Kubernetes1.12更新日志
      • Kubernetes1.10更新日志
      • Kubernetes1.11更新日志
  • 思维导图
    • k8s
    • DEVOPS
  • DEVOPS
    • 开源仓库-nexus
      • 一,nexus的安装
      • 二,使用nexus3配置docker私有仓库
      • 三,使用nexus3配置maven私有仓库
      • 四,nexus-3.14.0升级到3.15.2
      • 五,nexus3搭建golang私服
    • vpn
      • openvpn
    • Tcpdump 示例教程
    • Ipsec VPN-centos7使用strangwang搭建vpn
    • yum安装redis及常用指令
    • 数据库
      • mysql表操作
      • mysql 库常用操作及备份还原
      • MySQL 优化实施方案
    • NSQ
      • nsq问题解答
      • 选型
      • docker-compose部署 简单nsq 集群
    • 部署Redis集群
    • zookeeper安装及使用
    • Etcd
      • Untitled
      • Etcd配置
  • k8s系统完整部署
    • CentOS7.5 使用二进制程序部署Kubernetes1.12.2
    • 二进制的方式部署 K8S-1.16 高可用集群
    • CoreOS部署Kubernetes集群
    • EFK
      • 日志-kafka
      • logstash的部署、整合ELK+Filebeat
      • 应用日志收集
      • ES搭建
      • es集群部署
      • ElasticSearch技术原理
      • Elasticsearch操作
      • kibana
      • kibana简单使用
      • 非K8S主机部署Filebat
    • 镜像仓库-Harbor
    • Harbor 2.6.2安装
    • cURL 命令获取本机外网 IP
    • Shell 解析 JSON
    • 制作 gitbook 文档镜像,运行在 K8S 上
    • Kubernetes 之 MySQL 持久存储和故障转移
    • 如何删除etcd上的旧数据
    • Git 实战教程
  • 生活
    • 信合.阳光城
Powered by GitBook
On this page
  1. 深入浅出k8s

k8s发布策略介绍

在 Kubernetes中,有不同的发布更新的方式,有必要选择正确的策略。以便应用程序更新期间使产品基础架构可靠,尽量对用户产生影响。

Kubernetes的发布策略,主流有下面三种:

1.重建更新(Recreate)—停止旧版本部署新版本

spec:
  replicas: 3
  strategy:
    type: Recreate

2.滚动更新(rolling-update)—一个接一个地以滚动更新方式发布新版本

3.蓝绿更新—新版本与旧版本一起存在,然后切换流量

4.灰度更新(canary—将新版本面向一部分用户发布,然后继续全量发布

重建更新

优点

1.应用状态全部更新。
更新deployment是先全部删除所有pod,然后重建以新的img为标签的deployment。

缺点

1.停机时间取决于应用程序的关闭和启动消耗的时间

滚动更新

spec:
  replicas: 3 #总共副本数为3
  strategy:
    type: RollingUpdate #滚动更新为默认更新策略
    rollingUpdate:
      maxSurge: 2        # 一次可以添加多少个Pod
      maxUnavailable: 1  # 滚动更新期间,最多个不可用Pod数。
      #maxUnavailable设置为0可以完全确保在滚动更新期间服务不受影响,还可以使用百分比的值来进行设置。

优点

1.版本在实例之间缓慢替换 每次拉起成功后才能算是添加可用pod

2.rollout/rollback 可能需要一定时间

3.一次性更新完所有老版本

缺点

1.无法控制流量

蓝绿更新

优点

1.实时部署/回滚
2.避免版本问题,因为一次更改是整个应用的改变
3.可用根据副本数进行一定的比例进行流量控制

缺点

1.需要两倍的资源
2.在发布到生产之前,应该对整个应用进行适当的测试
3.多版本共存

蓝绿更新有两种模式:

1.动态模式

描述: 例如部署服务SSO对应svc的标签选择器为app: sso,根据多个deployment永远一样的标签,但是拥有不同的docker image版本。

通过不同版本的pod副本数量,影响svc选中pod的比重。 从而影响流量的选择。

apiVersion: v1
kind: Service
metadata:
  name: sso
  labels:
    app: sso
spec:
  type: NodePort
  ports:
  - name: http
    port: 80
    targetPort: http
  selector:
    app: sso        #这里选择app为sso的deployment标签作为后端真实实例
    ```
  然后升级前存在的v2019.6.23版本的deployment
---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name:sso-v2019623
spec:
  replicas: 10
  template:
    metadata:
      labels:
        app: sso
        version: "v2019.6.23"
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "32111"
    spec:
      containers:
      - name: sso
        image: docker.sklinux.com/xx/sso:v2019.6.23
        env:
        - name: VERSION
          value: "v2019.6.23"
        ports: 
        - containerPort: 80
        - containerPort: 32111

现在要插入一个v2019.6.24版本,流量接入为10%。则deployment部署文件是:

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name:sso-sso-v2019624
spec:
  replicas: 1 #副本数 为1,新版本为1,老版本为10,总副本数为11。大约9%的流量会到这个版本
  template:
    metadata:
      labels:
        app: sso #标签app=sso,会被上面sso的svc选中并流量转发过来。
        version: "v2019.6.24"
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "32111"
    spec:
      containers:
      - name: sso
        image: docker.sklinux.com/xx/sso:v2019.6.24
        env:
        - name: VERSION
          value: "v2019.6.24"
        ports: 
        - containerPort: 80
        - containerPort: 32111

根据观察v2019.6.24的运行情况。可以逐渐加大新版本的副本数,并减少老版本副本数。 不断收敛后,可以将sso-v2019.6.23下线。 调整副本为:

kubectl patch deployment sso-v2019624 -p '{"spec":{"selector":{"replicas":"10"}}}'
kubectl patch deployment sso-v2019623 -p '{"spec":{"selector":{"replicas":"1"}}}'

总结:此模式,是一个标签下面多个deploymen,每个deployment拥有相同的一组标签,供SVC选择调度。这种模式的特点是svc固定标签选择,动态增加、删除不同的deployment组,达到更新的目的。回滚:删除新的deployment即可 特点:SVC不变,deployment变,可以更加副本数量控制流量

2.静态整切模式

描述:

例如部署服务SSO对应svc的标签选择器为app: sso以及version: v2019.6.23,后端部署一个标签为app:sso和version: v2019.6.23的deployment。

当需要发布新的版本时,增加一组标签为 app:sso 和 version: v2019.6.24的deployment。

然后,更新SVC的version标签值为 v2019.6.24,从流量全部切换到新的deployment。如果需要保留老版本,可以不删除老的deployment。 回滚:将SVC的version标签改为老标签 特点:SVC改变,deployment也要改变。

流量版本切换是整体切换,无流量控制

灰度更新

优点

1.部分用户获取新版本
2.方便错误和性能监控
3.快速回滚

缺点

1.发布较慢
2.流量精准控制,但资源很浪费(99%A / 1%B = 99 Pod A,1 Pod B)

在服务网格的帮助下,灰度更新可用更好的支持多版本路由与流量切换

如果你对新功能的发布没有信心,建议使用金丝雀发布的策略。

Previous说明Nextoom kill原理讲解

Last updated 4 years ago