# k8s 给容器和 Pod 分配内存资源
这篇教程指导如何给容器分配申请的内存和内存限制。我们保证让容器获得足够的内存 资源,但是不允许它使用超过限制的资源。
# 开始之前
您需要有一个 k8s 集群,并且必须配置 kubectl 命令行工具以与集群通信。如果您还没有集群,可以使用 Minikube 创建一个集群。
你的集群里每个节点至少必须拥有 300M 的内存。
这个教程里有几个步骤要求 Heapster,但是如果你没有 Heapster 的话,也可以完成大部分的实验,就算跳过这些 Heapster 步骤,也不会有什么问题。
检查看 Heapster 服务是否运行,执行命令:
kubectl get services --namespace=kube-system
如果 Heapster 服务正在运行,会有如下输出:
NAMESPACE NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kube-system heapster 10.11.240.9 <none> 80/TCP 6d
# 创建一个命名空间
创建命名空间,以便你在实验中创建的资源可以从集群的资源中隔离出来。
kubectl create namespace mem-example
# 配置内存申请和限制
给容器配置内存申请,只要在容器的配置文件里添加 resources:requests 就可以了。配置限制的话,则是添加 resources:limits。
本实验,我们创建包含一个容器的 Pod,这个容器申请 100M 的内存,并且内存限制设置为 200M,下面 是配置文件:
memory-request-limit.yaml |
---|
apiVersion: v1 kind: Pod metadata: name: memory-demo spec: containers: - name: memory-demo-ctr image: vish/stress resources: limits: memory: "200Mi" requests: memory: "100Mi" args: - -mem-total - 150Mi - -mem-alloc-size - 10Mi - -mem-alloc-sleep - 1s |
在这个配置文件里,args 代码段提供了容器所需的参数。-mem-total 150Mi 告诉容器尝试申请 150M 的内存。
创建 Pod:
kubectl create -f https://k8s.io/docs/tasks/configure-pod-container/memory-request-limit.yaml --namespace=mem-example
验证 Pod 的容器是否正常运行:
kubectl get pod memory-demo --namespace=mem-example
查看 Pod 的详细信息:
kubectl get pod memory-demo --output=yaml --namespace=mem-example
这个输出显示了 Pod 里的容器申请了 100M 的内存和 200M 的内存限制。
...
resources:
limits:
memory: 200Mi
requests:
memory: 100Mi
...
启动 proxy 以便我们可以访问 Heapster 服务:
kubectl proxy
在另外一个命令行窗口,从 Heapster 服务获取内存使用情况:
curl http://localhost:8001/api/v1/proxy/namespaces/kube-system/services/heapster/api/v1/model/namespaces/mem-example/pods/memory-demo/metrics/memory/usage
这个输出显示了 Pod 正在使用 162,900,000 字节的内存,大概就是 150M。这很明显超过了申请 的 100M,但是还没达到 200M 的限制。
{
"timestamp": "2017-06-20T18:54:00Z",
"value": 162856960
}
删除 Pod:
kubectl delete pod memory-demo --namespace=mem-example
# 超出容器的内存限制
只要节点有足够的内存资源,那容器就可以使用超过其申请的内存,但是不允许容器使用超过其限制的 资源。如果容器分配了超过限制的内存,这个容器将会被优先结束。如果容器持续使用超过限制的内存,这个容器就会被终结。如果一个结束的容器允许重启,kubelet 就会重启他,但是会出现其他类型的运行错误。
本实验,我们创建一个 Pod 尝试分配超过其限制的内存,下面的这个 Pod 的配置文档,它申请 50M 的内存,内存限制设置为 100M。
memory-request-limit-2.yaml |
---|
apiVersion: v1 kind: Pod metadata: name: memory-demo-2 spec: containers: - name: memory-demo-2-ctr image: vish/stress resources: requests: memory: 50Mi limits: memory: "100Mi" args: - -mem-total - 250Mi - -mem-alloc-size - 10Mi - -mem-alloc-sleep - 1s |
在配置文件里的 args 段里,可以看到容器尝试分配 250M 的内存,超过了限制的 100M。
创建 Pod:
kubectl create -f https://k8s.io/docs/tasks/configure-pod-container/memory-request-limit-2.yaml --namespace=mem-example
查看 Pod 的详细信息:
kubectl get pod memory-demo-2 --namespace=mem-example
这时候,容器可能会运行,也可能会被杀掉。如果容器还没被杀掉,重复之前的命令直至 你看到这个容器被杀掉:
NAME READY STATUS RESTARTS AGE
memory-demo-2 0/1 OOMKilled 1 24s
查看容器更详细的信息:
kubectl get pod memory-demo-2 --output=yaml --namespace=mem-example
这个输出显示了容器被杀掉因为超出了内存限制。
lastState:
terminated:
containerID: docker://65183c1877aaec2e8427bc95609cc52677a454b56fcb24340dbd22917c23b10f
exitCode: 137
finishedAt: 2017-06-20T20:52:19Z
reason: OOMKilled
startedAt: null
本实验里的容器可以自动重启,因此 kubelet 会再去启动它。输入多几次这个命令看看它是怎么 被杀掉又被启动的:
kubectl get pod memory-demo-2 --namespace=mem-example
这个输出显示了容器被杀掉,被启动,又被杀掉,又被启动的过程:
stevepe@sperry-1:~/steveperry-53.github.io$ kubectl get pod memory-demo-2 --namespace=mem-example
NAME READY STATUS RESTARTS AGE
memory-demo-2 0/1 OOMKilled 1 37s
stevepe@sperry-1:~/steveperry-53.github.io$ kubectl get pod memory-demo-2 --namespace=mem-example
NAME READY STATUS RESTARTS AGE
memory-demo-2 1/1 Running 2 40s
查看 Pod 的历史详细信息:
kubectl describe pod memory-demo-2 --namespace=mem-example
这个输出显示了 Pod 一直重复着被杀掉又被启动的过程:
... Normal Created Created container with id 66a3a20aa7980e61be4922780bf9d24d1a1d8b7395c09861225b0eba1b1f8511
... Warning BackOff Back-off restarting failed container
查看集群里节点的详细信息:
kubectl describe nodes
输出里面记录了容器被杀掉是因为一个超出内存的状况出现:
Warning OOMKilling Memory cgroup out of memory: Kill process 4481 (stress) score 1994 or sacrifice child
删除 Pod:
kubectl delete pod memory-demo-2 --namespace=mem-example
# 配置超出节点能力范围的内存申请
内存的申请和限制是针对容器本身的,但是认为 Pod 也有容器的申请和限制是一个很有帮助的想法。 Pod 申请的内存就是 Pod 里容器申请的内存总和,类似的,Pod 的内存限制就是 Pod 里所有容器的 内存限制的总和。
Pod 的调度策略是基于请求的,只有当节点满足 Pod 的内存申请时,才会将 Pod 调度到合适的节点上。
在这个实验里,我们创建一个申请超大内存的 Pod,超过了集群里任何一个节点的可用内存资源。 这个容器申请了 1000G 的内存,这个应该会超过你集群里能提供的数量。
memory-request-limit-3.yaml |
---|
apiVersion: v1 kind: Pod metadata: name: memory-demo-3 spec: containers: - name: memory-demo-3-ctr image: vish/stress resources: limits: memory: "1000Gi" requests: memory: "1000Gi" args: - -mem-total - 150Mi - -mem-alloc-size - 10Mi - -mem-alloc-sleep - 1s |
创建 Pod:
kubectl create -f https://k8s.io/docs/tasks/configure-pod-container/memory-request-limit-3.yaml --namespace=mem-example
查看 Pod 的状态:
kubectl get pod memory-demo-3 --namespace=mem-example
输出显示 Pod 的状态是 Pending,因为 Pod 不会被调度到任何节点,所有它会一直保持在 Pending 状态下。
kubectl get pod memory-demo-3 --namespace=mem-example
NAME READY STATUS RESTARTS AGE
memory-demo-3 0/1 Pending 0 25s
查看 Pod 的详细信息包括事件记录
kubectl describe pod memory-demo-3 --namespace=mem-example
这个输出显示容器不会被调度因为节点上没有足够的内存:
Events:
... Reason Message
------ -------
... FailedScheduling No nodes are available that match all of the following predicates:: Insufficient memory (3).
# 内存单位
内存资源是以字节为单位的,可以表示为纯整数或者固定的十进制数字,后缀可以是 E, P, T, G, M, K, Ei, Pi, Ti, Gi, Mi, Ki.比如,下面几种写法表示相同的数值:alue:
128974848, 129e6, 129M , 123Mi
删除 Pod:
kubectl delete pod memory-demo-3 --namespace=mem-example
# 如果不配置内存限制
如果不给容器配置内存限制,那下面的任意一种情况可能会出现:
- 容器使用内存资源没有上限,容器可以使用当前节点上所有可用的内存资源。
- 容器所运行的命名空间有默认内存限制,容器会自动继承默认的限制。集群管理员可以使用这个文档 LimitRange 来配置默认的内存限制。
# 内存申请和限制的原因
通过配置容器的内存申请和限制,你可以更加有效充分的使用集群里内存资源。配置较少的内存申请,可以让 Pod 跟任意被调度。设置超过内存申请的限制,可以达到以下效果:
- Pod 可以在负载高峰时更加充分利用内存。
- 可以将 Pod 的内存使用限制在比较合理的范围。
# 清理
删除命名空间,这会顺便删除命名空间里的 Pod。
kubectl delete namespace mem-example