一个 rs 管理的 pod 如何副本数均等的调度到 2 个节点上? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要在回答技术问题时复制粘贴 AI 生成的内容
css3
V2EX    程序员

一个 rs 管理的 pod 如何副本数均等的调度到 2 个节点上?

  •  
  •   css3 2021-08-24 10:45:20 +08:00 via iPhone 1756 次点击
    这是一个创建于 1558 天前的主题,其中的信息可能已经有所发展或是发生改变。

    有这么个需求,需要将 1 个 deploy 下的 rs 管理的 pod 分别按相同数量的副本调度,如下所示,有啥合理的办法吗?

    node1: mypod1 mypod2 mypod3 mypod4

    node2: mypod1 mypod2 mypod3 mypod4

    10 条回复    2021-08-24 21:08:16 +08:00
    ericls
        1
    ericls  
       2021-08-24 10:49:35 +08:00
    RS -> Replica Set
    eudore
        3
    eudore  
       2021-08-24 11:00:29 +08:00   1
    pod 污点亲和, 相同 dp 间污点,不同 dp 间亲和,污点让在存在 pod1 的 node 上不再继续调度来 pod1 (避免资源充足时多副本在一个 node ),亲和让 pod2 调度到存在 pod1 的 node 上(让 pod 和关联的 pod 优先在一起)。
    caoyouming
        4
    caoyouming  
       2021-08-24 11:18:25 +08:00
    没办法做到这么精确吧。指定两个 node 也会存在随机分配的情况
    GreatTony
        5
    GreatTony  
       2021-08-24 11:24:07 +08:00
    用两个 deployment 加节点选择器不就搞定了
    hzfyjgw
        6
    hzfyjgw  
       2021-08-24 11:35:52 +08:00
    无状态的 pod 没必要调度这么精准
    ss3
        7
    css3  
    OP
       2021-08-24 11:55:29 +08:00
    @lfzyx
    @eudore 新知识,还完全没接触过这个,发帖前看过,不是特别明白。多谢
    dier
        8
    dier  
       2021-08-24 14:45:08 +08:00
    如果你的集群只有这两个节点,而且每个应用的 pod 数量只有两个,那直接配置 pod 之间非亲和就可以了。如果有多个节点,那就对这几个应用配置节点选项,然后再加上 pod 之间非亲和配置就可以实现。如果你觉得官方的英文文档不好理解,其实也可以参考一下国内几大云厂家的文档。
    css3
        9
    css3  
    OP
       2021-08-24 15:46:09 +08:00 via iPhone
    @dier 官方文档支持中文了,主要是概念对我是全新的,也没实操过,要亲和,非亲和细看一下实操下才有更深的认知,多谢老哥点播
    liuhan907
        10
    liuhan907  
       2021-08-24 21:08:16 +08:00 via Android
    @css3
    亲和性解决不了你的问题。亲和可以让 pod 尽量分散,但是无法绝对平衡 pod 分配。我觉得你应该从别的方向入手。比方说,为何同一个部署下会需要这么多 pod ?节点资源只有这么多,增加 pod 并不能增加吞吐。减小 pod 数量到 2 再用亲和就可以。如果说你的一个 pod 只能使用有限的资源导致利用率不满,那就给容器配置资源限制让 k8s 自己根据资源容量调度。
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2860 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 29ms UTC 00:17 PVG 08:17 LAX 16:17 JFK 19:17
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86