# k8s 搭建大型集群
# 支持
在 v1.7 版本中,k8s 支持集群节点(node)数可达 1000 个。更具体地说,我们配置能够支持所有如下条件:
- 不超过 2000 个节点
- 不超过总共 6000 个 pod
- 不超过总共 12000 个 container
- 单节点不超过 100 个 pod
# 安装
集群是一组运行着 k8s 代理的节点(物理或者虚机),被 “主服务器” (集群层面的控制台)所管理。
通常来说,集群中的节点数是通过平台特定的 config-default.sh 文件(例子参考 GCE’s config-default.sh )中的 NUM_NODES 值控制的。
然而,单单把这个值更改到很大的数值会导致安装脚本在许多云服务商平台上运行失败。例如 GCE 部署,会有配额问题导致集群启动失败。
当需要建立大规模 k8s 集群时,必须考虑下列问题:
# 配额问题
为了避免在云服务商平台上发生配额问题,当创建一个许多节点的集群时,要考虑:
增加这些资源的配额,比如 CPU,IP 地址等等。
在
GCE 中,举个例子
你会需要增加:
- CPU
- 虚拟机实例
- 永久磁盘的预留总量
- 在使用的 IP 地址
- 防火墙规则
- 转发规则
- 路由
- 目标池
调整好安装脚本,让它能够在创建虚拟机节点的批处理中有等待时间,因为很多云服务商平台对于虚拟机的创建频率有限制。
# Etcd 存储
为了提高大规模集群的性能,我们将 event 存储在一个独立的 etcd 实例中。
当创建一个集群时,现有的 salt 脚本会:
- 启动并配置额外的 etcd 实例
- 配置 api-server 用于储存 event
# 主服务器和主服务器组件的规格
在 GCE/GKE 和 AWS 上,kube-up 自动为你的主服务器配置合适的虚拟机规格,规格取决于集群中的节点数量。 对于其他云服务商平台,你需要手工配置。作为参考,我们在 GCE 上使用的规格是:
- 1-5 节点: n1-standard-1
- 6-10 节点: n1-standard-2
- 11-100 节点: n1-standard-4
- 101-250 节点: n1-standard-8
- 251-500 节点: n1-standard-16
- 超过 500 节点: n1-standard-32
在 AWS 上我们使用的规格:
- 1-5 节点: m3.medium
- 6-10 节点: m3.large
- 11-100 节点: m3.xlarge
- 101-250 节点: m3.2xlarge
- 251-500 节点: c4.4xlarge
- 超过 500 节点: c4.8xlarge
注意,主服务器节点规格只能在集群启动时设置,如果后续对于集群扩容或者缩容(比如,使用手工或集群自动扩展器进行增加或删除节点),规格是不会调整的。
# 插件(Addon)资源
为了防止 集群插件 内存泄漏或者其他资源问题导致消耗完节点的所有资源,k8s 对插件容器设定了资源限制,以限制他们使用 CPU 和内存资源。(参见 PR #10653 和 #10778)
举例:
containers:
- name: fluentd-cloud-logging
image: gcr.io/google_containers/fluentd-gcp:1.16
resources:
limits:
cpu: 100m
memory: 200Mi
除了 Heapster 之外,这些限制是固定的,并且是基于我们对于插件运行在 4 节点集群的采样数据(见 #10335)。运行在大规模集群上时,插件会消耗更多的资源(见 #5880)。所以,如果大规模集群没有调整这些参数时,插件容器可能会被持续杀死,因为他们总是达到限制。
为了避免集群的插件资源问题出现,当创建一个许多节点的集群时,考虑如下问题:
- 为以下每个插件调整内存和 CPU 限制,使用时,随着你的集群扩容(每个插件有一个 replica 来处理整个集群,所以 CPU/内存 使用量会随着集群的 规模/负载 按比例增加):
- InfluxDB and Grafana
- kubedns, dnsmasq, and sidecar
- Kibana
- 为以下这些插件调整 replicas 数量, 使用时, 随着集群规模数量一起调整(每个插件会有多个 replicas, 所以增加 replicas 应该能帮助处理增加的负载,但是,由于每个 replica 的负载也稍稍增加, 同时需要考虑增加 CPU/内存 限制):
- elasticsearch
- 为以下这些插件稍稍增加内存和 CPU 使用限制, 使用时, 随着集群规模数量一起调整(每个节点有一个 replica,但是 CPU/内存 使用量随着集群的 负载/规模 会稍稍增加):
- FluentD with ElasticSearch Plugin
- FluentD with GCP Plugin
Heapster 的资源限制是基于集群的初始规模动态配置的(见 #16185 和 #22940)。 如果你发现 Heapster 的资源不够,你应该调整 Heapster 对于内存的请求的计算公式(详见这些 PRs)。
对于如何检查插件容器是否达到了资源使用限制,参考 计算资源的问题排查章节。
在 未来,我们预期会基于集群规模来设置所有集群插件的资源限制,并且会在你的集群扩容或缩容时进行动态调整。 我们欢迎致力于实现这些功能的 PR。
# 允许少数节点在启动时失败
由于各种原因 (详细信息见 #18969),运行 kube-up.sh 建立非常大 的 NUM_NODES 数量的集群会由于个别的节点的启动失败而失败。目前你有两个选择:重启集群(再次运行 kube-down.sh 和 kube-up.sh),或者,在运行 kube-up.sh 之前,将 ALLOWED_NOTREADY_NODES 环境变量设置成合适的值。这会让 kube-up.sh 在少于 NUM_NODES 节点启动的时候成功完成。根据不同的失败原因,这些额外的节点可以在稍后再加入集群,或者集群可以保持在 NUM_NODES - ALLOWED_NOTREADY_NODES 的规模。