![]() | 1 monsterxx03 2019-02-11 17:41:22 +08:00 ![]() 1. kubelet 启动的时候有没有指定 --max-pods 2. 取决于 node 的 cpu, ram, 和你要创建的 pod request 的 cpu 和 ram |
![]() | 2 artandlol 2019-02-11 17:45:41 +08:00 via iPhone ![]() 看你服务器的配置,看 pod 占用大小。压测下 |
![]() | 3 ns2250225 OP @monsterxx03 那如果集群只有一台 4u 8g 的机器,是不是只能创建 2 个 2u 4g 的 pod 呀? |
![]() | 5 monsterxx03 2019-02-11 17:51:07 +08:00 @ns2250225 不是,一个 cpu 核分成 1000m 单位,如果你一个 pod 只需要 10m(1/100 core), 那就能跑 100 个 pod. 内存按M为单位同理. 如果起 pod 时候不指定 request resource, 理论上可以一直加 pod 直到 OOM |
![]() | 6 PureWhiteWu 2019-02-11 17:51:40 +08:00 @ns2250225 默认情况下是的,甚至创建不了,因为还有 cpu 和内存要留给控制平面和系统 |
7 ifaii 2019-02-11 18:32:15 +08:00 via iPhone 要看你的容器平均资源消耗 然后按照总资源 50~60 的配置最大值,然后观察一段时间再调整 |
![]() | 8 recall704 2019-02-11 20:58:50 +08:00 默认最大值是 110,实际得看配置 |
![]() | 9 frostcake 2019-02-11 21:24:16 +08:00 kubectl describe quota |
![]() | 10 mritd 2019-02-12 07:45:41 +08:00 via iPhone @ns2250225 #3 事实上你不可能完全占用系统资源,一般 kubelet 组件等都会预留一些资源的 |
11 godjob 2019-02-12 11:36:08 +08:00 看 pod 网段的网络掩码,比如我们的 pod 网络是 10.254.0.0/16,理论上是 254 个节点,每个节点 254 个 pod |
12 song4 2019-02-12 13:29:05 +08:00 @monsterxx03 是对的,做 Capacity Planning 的话,还需要知道应用的工作负载特征。 |