Kubernetes 配置Pod和容器(五)应用资源配额和限制

演示使用了下面的资源:Namespace, ResourceQuota, 和 LimitRange

开始之前

你必须有一个Kubernetes集群,并且kubectl命令行工具能够和你的集群沟通。如果你还没有集群,可以使用Minikube创建一个集群。

场景

集群管理员操作多用户团队的集群,集群管理员希望可以控制特定集群中可以消耗资源的总量,以提升集群的共享和控制成本。

  • 限制运行pod的计算资源量
  • 限制持久卷声明数量来控制对于存储的访问
  • 限制负载均衡数量来控制成本
  • 限制使用节点端口来保存稀缺的资源
  • 提供默认的计算资源请求以实现更好的调度策略

新建命名空间

这个例子将在自定义的命名空间工作以演示相关的概念。

让我们新建一个名字为quota-example的命名空间:

$ kubectl create namespace quota-example
namespace "quota-example" created
$ kubectl get namespaces
NAME            STATUS    AGE
default         Active    2m
kube-system     Active    2m
quota-example   Active    39s

将对象计数配额应用于命名空间

集群管理员像控制下面的资源:

  • 持久卷声明
  • 负载均衡
  • 节点端口

让我们新建一个简单的配额来控制命名空间中的对象计数。

$ kubectl create -f http://k8s.io/docs/tasks/configure-pod-container/rq-object-counts.yaml --namespace=quota-example
resourcequota "object-counts" created

配额系统观察到配额已经创建,并将计算命名空间中资源的消耗。很快就可以看到。

我们来观察配额,看看目前命名空间中消耗的是什么:

$ kubectl describe quota object-counts --namespace=quota-example
Name:                  object-counts
Namespace:             quota-example
Resource               Used    Hard
--------               ----    ----
persistentvolumeclaims 0    2
services.loadbalancers 0    2
services.nodeports     0    0

如果用户创建应用所需的资源多余每种资源指定的数量,配额系统将不允许创建。

将计算资源配额应用于命名空间

限制命名空间可以消耗的计算资源量,让我们创建一个配额跟踪计算资源。

$ kubectl create -f http://k8s.io/docs/tasks/configure-pod-container/rq-compute-resources.yaml --namespace=quota-example
resourcequota "compute-resources" created

我们来观察配额,看看目前命名空间中消耗的是什么:

$ kubectl describe quota compute-resources --namespace=quota-example
Name:                  compute-resources
Namespace:             quota-example
Resource               Used Hard
--------               ---- ----
limits.cpu             0    2
limits.memory          0    2Gi
pods                   0    4
requests.cpu           0    1
requests.memory        0    1Gi

配额系统现在不允许命名空间中超过4个非终端pod。此外它将强制pod中的每个容器都要定义cpu和内存的request和limit。

应用默认的资源请求和限制

Pod的发起者很少给他们的pod指定资源请求和限制。

由于我们对项目施行了配额,让我看看当最终用户创建了没有cpu和内存限制的pod发生了什么,这个pod包含一个nginx容器。

这个演示我们创建了一个运行了nginx的deployment:

$ kubectl run nginx --image=nginx --replicas=1 --namespace=quota-example
deployment "nginx" created

让我们看看创建的pod:

$ kubectl get pods --namespace=quota-example

可以看到没有创建pod!让我们看看deployment发生了什么。

$ kubectl describe deployment nginx --namespace=quota-example
Name:                   nginx
Namespace:              quota-example
CreationTimestamp:      Mon, 06 Jun 2016 16:11:37 -0400
Labels:                 run=nginx
Selector:               run=nginx
Replicas:               0 updated | 1 total | 0 available | 1 unavailable
StrategyType:           RollingUpdate
MinReadySeconds:        0
RollingUpdateStrategy:  1 max unavailable, 1 max surge
OldReplicaSets:         <none>
NewReplicaSet:          nginx-3137573019 (0/1 replicas created)
...

deployment创建了一个相应的副本,并尝试创建一个pod。

看看replica set获取很多详细信息。

$ kubectl describe rs nginx-3137573019 --namespace=quota-example
Name:                   nginx-3137573019
Namespace:              quota-example
Image(s):               nginx
Selector:               pod-template-hash=3137573019,run=nginx
Labels:                 pod-template-hash=3137573019
                        run=nginx
Replicas:               0 current / 1 desired
Pods Status:            0 Running / 0 Waiting / 0 Succeeded / 0 Failed
No volumes.
Events:
  FirstSeen    LastSeen    Count From                    SubobjectPath Type      Reason        Message
  ---------    --------  ----- ----                    -------------    --------  ------        -------
  4m        7s        11    {replicaset-controller }              Warning   FailedCreate  Error creating: pods "nginx-3137573019-" is forbidden: Failed quota: compute-resources: must specify limits.cpu,limits.memory,requests.cpu,requests.memory

Kubernetes API服务拒绝replica set请求创建一个pod因为我们的pod没有指定requests或limits的cpu和内存。

所以我们可以指定pod可以消耗的cpu和内存资源量的默认值:

$ kubectl create -f http://k8s.io/docs/tasks/configure-pod-container/rq-limits.yaml --namespace=quota-example
limitrange "limits" created
$ kubectl describe limits limits --namespace=quota-example
Name:           limits
Namespace:      quota-example
Type      Resource  Min  Max  Default Request   Default Limit   Max Limit/Request Ratio
----      --------  ---  ---  ---------------   -------------   -----------------------
Container memory    -    -    256Mi             512Mi           -
Container cpu       -    -    100m              200m            -

如果Kubernetes API服务观察到命名空间中创建pod的请求,并且pod中的容器没有设置任何计算资源请求,将会配置默认的资源request和limit作为控制的一部分被应用。

在这个例子中,创建的每个pod都包含等同于以下的计算资源:

$ kubectl run nginx \
  --image=nginx \
  --replicas=1 \
  --requests=cpu=100m,memory=256Mi \
  --limits=cpu=200m,memory=512Mi \
  --namespace=quota-example

现在我们已经为命名空间应用了默认的计算资源,我们的replica set能够创建他的pod。

$ kubectl get pods --namespace=quota-example
NAME                     READY     STATUS    RESTARTS   AGE
nginx-3137573019-fvrig   1/1       Running   0          6m

如果打印命名空间的配额使用:

$ kubectl describe quota --namespace=quota-example
Name:           compute-resources
Namespace:      quota-example
Resource        Used    Hard
--------        ----    ----
limits.cpu      200m    2
limits.memory   512Mi   2Gi
pods            1       4
requests.cpu    100m    1
requests.memory 256Mi   1Gi


Name:                 object-counts
Namespace:            quota-example
Resource              Used    Hard
--------              ----    ----
persistentvolumeclaims 0      2
services.loadbalancers 0      2
services.nodeports     0      0

你可以看到,创建的pod正在消耗计算资源,并且Kubernetes可以比较明确的跟踪使用情况。

高级配额范围

我们假设你不想在命名空间中指定默认的消耗资源。相反你希望让用户在他们的命名空间中运行特定数量的BestEffort pod,以利用松散的计算资源,然后要求用户对需要较高服务质量的pod进行明确的资源请求。

让我们创建一个命名空间并提供两个配额来演示这个行为:

$ kubectl create namespace quota-scopes
namespace "quota-scopes" created
$ kubectl create -f http://k8s.io/docs/tasks/configure-pod-container/rq-best-effort.yaml --namespace=quota-scopes
resourcequota "best-effort" created
$ kubectl create -f http://k8s.io/docs/tasks/configure-pod-container/rq-not-best-effort.yaml --namespace=quota-scopes
resourcequota "not-best-effort" created
$ kubectl describe quota --namespace=quota-scopes
Name:       best-effort
Namespace:  quota-scopes
Scopes:     BestEffort
 * Matches all pods that have best effort quality of service.
Resource    Used    Hard
--------    ----  ----
pods        0     10


Name:             not-best-effort
Namespace:        quota-scopes
Scopes:           NotBestEffort
 * Matches all pods that do not have best effort quality of service.
Resource          Used  Hard
--------          ----  ----
limits.cpu        0     2
limits.memory     0     2Gi
pods              0     4
requests.cpu      0     1
requests.memory   0     1Gi

在这种场景下,一个pod没有设置计算资源请求将被"best-effort"配额追踪。

让我们来创建两个deployments来演示:

$ kubectl run best-effort-nginx --image=nginx --replicas=8 --namespace=quota-scopes
deployment "best-effort-nginx" created
$ kubectl run not-best-effort-nginx \
  --image=nginx \
  --replicas=2 \
  --requests=cpu=100m,memory=256Mi \
  --limits=cpu=200m,memory=512Mi \
  --namespace=quota-scopes
deployment "not-best-effort-nginx" created

即使没有指定默认限制,best-effort-nginx将创建所有的8个pod。这是因为它追踪best-effort配置,not-best-effort配置将忽略它。not-best-effort配置将追踪not-best-effort-nginx deployment因为它创建了具有Burstable服务质量的pod。

让我们看看命名空间的pod列表:

$ kubectl get pods --namespace=quota-scopes
NAME                                     READY     STATUS    RESTARTS   AGE
best-effort-nginx-3488455095-2qb41       1/1       Running   0          51s
best-effort-nginx-3488455095-3go7n       1/1       Running   0          51s
best-effort-nginx-3488455095-9o2xg       1/1       Running   0          51s
best-effort-nginx-3488455095-eyg40       1/1       Running   0          51s
best-effort-nginx-3488455095-gcs3v       1/1       Running   0          51s
best-effort-nginx-3488455095-rq8p1       1/1       Running   0          51s
best-effort-nginx-3488455095-udhhd       1/1       Running   0          51s
best-effort-nginx-3488455095-zmk12       1/1       Running   0          51s
not-best-effort-nginx-2204666826-7sl61   1/1       Running   0          23s
not-best-effort-nginx-2204666826-ke746   1/1       Running   0          23s

你可以看到10个pod已经被允许创建。

让我们看看现在命名空间配额的使用情况:

$ kubectl describe quota --namespace=quota-scopes
Name:            best-effort
Namespace:       quota-scopes
Scopes:          BestEffort
 * Matches all pods that have best effort quality of service.
Resource         Used  Hard
--------         ----  ----
pods             8     10


Name:               not-best-effort
Namespace:          quota-scopes
Scopes:             NotBestEffort
 * Matches all pods that do not have best effort quality of service.
Resource            Used  Hard
--------            ----  ----
limits.cpu          400m  2
limits.memory       1Gi   2Gi
pods                2     4
requests.cpu        200m  1
requests.memory     512Mi 1Gi

可以看到,best-effort配额追踪创建best-effort-nginx deployment中8个pod的使用,并且not-best-effort配置追踪我们在配额里面创建的not-best-effort-nginx的使用情况。

scope提供了一种机制细分资源集合来追踪配额说明,以便在管理者部署和跟踪资源消耗方面提供更大的灵活性。

除了BestEffort和NotBestEffort范围,有一些范围限制长时运行与时间限制的pod。Terminating范围将匹配spec.activeDeadlineSeconds不为nil的任何pod。NotTerminating范围将匹配spec.activeDeadlineSeconds为nil的任何pod。这些范围允许你根据集群中节点上的预期的运行周期来限定pod。

总结

消耗节点cpu和内存资源的举措可能受命名空间定义的配额限制。

可以调整消耗这些资源的任何举措,或者可以选择默认命名空间级别的默认值来满足你的最终需求。

配额可以根据服务质量和集群节点上预期的持久性进行分配。

推荐阅读更多精彩内容