1. 简介

在kubernetes里最小的调度单位是pod,当删除pod的时候,pod一下就被删除了,pod并没有给我们提供任何的健壮性,在工作中,很少会单独创建pod,而是通过控制器来管理pod。

2. deployment控制器

Deployment控制器的主要职责是保证Pod资源的健康运行,该控制器的大部分功能是通过调用ReplicaSet控制器实现,同时Deploymen控制器还增添了一些特性,这些特性大多是体现在Pod更新上,使得我们队Pod的更新控制更加细致。

2.1 deployment命令行管理

1
2
3
4
5
6
7
kubectl get deployments
kubectl create deployment web1 --image=nginx --dry-run=client -o yaml > cc.yaml
kubectl run nginx --image=nginx --dry-run -o yaml
kubectl run nginx --image=nginx --replicas=5
kubectl run name --image=nginx --port=80
kubectl run name --image=nginx --env="env1=v2" --env="env2=v2"
kubectl run name --image=nginx --labels="app=hazelcast,env=prod"

2.2 创建deployment

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
apiVersion: apps/v1
kind: Deployment
metadata:
creationTimestamp: null
labels:
app: web1
name: web1
spec:
replicas: 1
selector:
matchLabels:
app: web1
strategy: {}
template:
metadata:
creationTimestamp: null
labels:
app: web1
spec:
terminationGracePeriodSeconds: 0
containers:
- image: nginx
imagePullPolicy: IfNotPresent
name: nginx
resources: {}
status: {}

2.3 HPA

horizontal pod autoscalers 水平自动伸缩,通过检查pod cpu的负载,解决deployment里某pod负载太重,动态伸缩pod的数量来负载均衡

2.3.1 应用场景

2.3.2 配置HPA

配置HPA需要满足2个条件:

  1. 安装metrics-server
  2. pod做资源限制

创建yaml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
apiVersion: apps/v1
kind: Deployment
metadata:
creationTimestamp: null
labels:
app: web1
name: web1
spec:
replicas: 1
selector:
matchLabels:
app: web1
strategy: {}
template:
metadata:
creationTimestamp: null
labels:
app: web1
spec:
terminationGracePeriodSeconds: 0
containers:
- image: nginx
imagePullPolicy: IfNotPresent
name: nginx
resources:
requests:
cpu: 400m
status: {}

创建hpa

超过5%就创建pod副本,最多5个

1
kubectl autoscale deployment web1 --max=5 --cpu-percent=5

查看当前hpa资源

1
2
3
[root@node001 chap6-deployment]# kubectl get hpa
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE
web1 Deployment/web1 0%/30% 1 5 1 85s

创建svc

1
kubectl expose --name=svc1 deployment web1 --port 80

2.3.3 测试hpa

安装压测工具

1
yum install httpd-tools -y

进行压测

1
ab -t 600 -n 1000000 -c 1000 http://10.99.13.205/index.html

-n在测试会话中所执行的请求个数。默认时,仅执行一个请求。
-c一次产生的请求个数。默认是一次一个。
-t测试所进行的最大秒数

查看hpa

可以看到当前3个副本

1
2
3
[root@node001 chap6-deployment]# kubectl get hpa
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE
web1 Deployment/web1 3%/3% 1 5 3 15m

当压力下降,5分钟后副本数会降为1

2.4 升级镜像

2.4.1 版本更新

1
kubectl set image deployment/web1 nginx=nginx:1.9 --record

2.4.2 查看更新历史记录

1
2
3
4
5
6
[root@node001 chap6-deployment]# kubectl rollout history deployment web1 
deployment.apps/web1
REVISION CHANGE-CAUSE
1 <none>
2 kubectl set image deployment/web1 nginx=1.9 --record=true
3 kubectl set image deployment/web1 nginx=nginx:1.9 --record=true

2.4.3 版本回滚

1
kubectl rollout undo deployment web1 --to-revision 1

2.5 滚动更新

maxSurge
 在升级过程中一次升级几个
maxUnavailable
 在升级过程中,只能有1个不可用,一次性删除多少个po

创建yaml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
apiVersion: apps/v1
kind: Deployment
metadata:
creationTimestamp: null
labels:
app: web1
name: web1
spec:
replicas: 10
selector:
matchLabels:
app: web1
strategy:
rollingUpdate:
maxSurge: 1
maxUnavailable: 1
template:
metadata:
creationTimestamp: null
labels:
app: web1
spec:
terminationGracePeriodSeconds: 0
containers:
- image: nginx
imagePullPolicy: IfNotPresent
name: nginx
resources:
requests:
cpu: 400m
status: {}

3. daemonset控制器

不需要指定副本数,有几个worker节点就运行几个副本数

3.1 应用场景

  1. 运行集群存储 daemon,例如在每个 Node 上运行 glusterd、ceph
  2. 在每个 Node 上运行日志收集 daemon,例如fluentd、logstash
  3. 在每个 Node 上运行监控 daemon,例如 Prometheus Node Exporter、collectd、Datadog 代理、New Relic 代理,或 Ganglia gmon

3.2 创建yaml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
apiVersion: apps/v1
kind: DaemonSet
metadata:
creationTimestamp: null
labels:
app: dsweb1
name: dsweb1
spec:
selector:
matchLabels:
app: dsweb1
template:
metadata:
creationTimestamp: null
labels:
app: dsweb1
spec:
containers:
- image: nginx
imagePullPolicy: IfNotPresent
name: nginx
resources: {}

4. statefulset控制器

它为了解决有状态服务的问题,它所管理的Pod拥有固定的Pod名称,启停顺序,在StatefulSet中,Pod名字称为网络标识(hostname),还必须要用到共享存储。
在Deployment中,与之对应的服务是service,而在StatefulSet中与之对应的headless service,headless service,即无头服务,与service的区别就是它没有Cluster IP,解析它的名称时将返回该Headless Service对应的全部Pod的Endpoint列表。
除此之外,StatefulSet在Headless Service的基础上又为StatefulSet控制的每个Pod副本创建了一个DNS域名

这个域名的格式为:
(podname).(headlessservername)FQDN(podname).(headless server name) FQDN:(podname).(headless server name).namespace.svc.cluster.local

4.1 组成部分

Headless Service:用来定义Pod网络标识( DNS domain);
volumeClaimTemplates :存储卷申请模板,创建PVC,指定pvc名称大小,将自动创建pvc,且pvc必须由存储类供应;
StatefulSet :定义具体应用,名为Nginx,有三个Pod副本,并为每个Pod定义了一个域名部署statefulset。

为什么需要 headless service 无头服务?
在用Deployment时,每一个Pod名称是没有顺序的,是随机字符串,因此是Pod名称是无序的,但是在statefulset中要求必须是有序 ,每一个pod不能被随意取代,pod重建后pod名称还是一样的。而pod IP是变化的,所以是以Pod名称来识别。pod名称是pod唯一性的标识符,必须持久稳定有效。这时候要用到无头服务,它可以给每个Pod一个唯一的名称 。

为什么需要volumeClaimTemplate?
对于有状态的副本集都会用到持久存储,对于分布式系统来讲,它的最大特点是数据是不一样的,所以各个节点不能使用同一存储卷,每个节点有自已的专用存储,但是如果在Deployment中的Pod template里定义的存储卷,是所有副本集共用一个存储卷,数据是相同的,因为是基于模板来的 ,而statefulset中每个Pod都要自已的专有存储卷,所以statefulset的存储卷就不能再用Pod模板来创建了,于是statefulSet使用volumeClaimTemplate,称为卷申请模板,它会为每个Pod生成不同的pvc,并绑定pv,从而实现各pod有专用存储。这就是为什么要用volumeClaimTemplate的原因。

4.2 部署服务

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
apiVersion: v1
kind: Service
metadata:
name: nginx
labels:
app: nginx
spec:
ports:
- port: 80
name: web
clusterIP: None
selector:
app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: web
spec:
selector:
matchLabels:
app: nginx # 必须匹配 .spec.template.metadata.labels
serviceName: "nginx"
replicas: 3 # 默认值是 1
minReadySeconds: 10 # 默认值是 0
template:
metadata:
labels:
app: nginx # 必须匹配 .spec.selector.matchLabels
spec:
terminationGracePeriodSeconds: 10
containers:
- name: nginx
image: nginx
ports:
- containerPort: 80
name: web
volumeMounts:
- name: www
mountPath: /usr/share/nginx/html
volumeClaimTemplates:
- metadata:
name: www
spec:
accessModes: [ "ReadWriteOnce" ]
storageClassName: "mysc"
resources:
requests:
storage: 1Gi