这种情况用 jsonb 保存好还是用表保存好呢 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
FightPig
V2EX    PostgreSQL

这种情况用 jsonb 保存好还是用表保存好呢

  •  
  •   FightPig 2020-12-01 11:31:57 +08:00 3326 次点击
    这是一个创建于 1776 天前的主题,其中的信息可能已经有所发展或是发生改变。

    一个表是 table1,另一个表是 table2, table1:

    id:int name: varchar 

    table2

    id:int table1_id:int content: varchar 

    如有一条 table1 记录,可能下面有几千条 tabe2 记录,当 table1 表不停增加,我发现 table2 表数据最后能达到几亿条,然后如果把 table1 改成

    talbe1: id: int name: varchar items: jsonb

    比如这样保存, table1 中把关联保存成这样

    items: [{content: "content1"}, {content: 'content2'}.....] 

    这样,如果 table1 有 100 万条,不用生成 table2 的 100 万*几千条,不知道这样行不行?这样 table2 不会出现几亿甚至几十亿条数据,主要我是担心这个上几亿速度会变很慢。

    第 1 条附言    2020-12-03 14:56:18 +08:00
    这两天测试了下,table1 加到 10 万条,然后 items 列保存成 jsonb,items 各 2000 项,然后,查询时慢的不行,顺便试了下 mongodb 的 Embedded Document,没这方面问题,
    10 条回复    2020-12-03 14:53:45 +08:00
    echowuhao
        1
    echowuhao  
       2020-12-01 11:47:30 +08:00
    不可取。1. 肯定会更慢,取决于你查询的内容。
    2. 仅 content 一个词,一亿条记录就增加了快 650M 的空间占用。

    你可以弄个几万条记录测试一下,我只是猜想。
    echowuhao
        2
    echowuhao  
       2020-12-01 11:50:25 +08:00
    查了一下,jsonb 也有 size limit,which is 255 MB.

    https://stackoverflow.com/questions/12632871/

    如果内容比较多,不能用。
    FightPig
        3
    FightPig  
    OP
       2020-12-01 11:56:44 +08:00
    @echowuhao 谢谢,上面说的有点错,现在 table1 这个表不停增长,大约后期有 100w 条多,一个 table1 最多关联 2000 多条 table2 数据吧,这样一算,table2 这数据量有点太大,如果保存成 jsonb,那这样也就只有 100w 多条 table1,感觉查询应该比查询 100w*2000 这样的数量好查询,主要是 table2 这个表不断膨胀,如果保存成 jsonb 形式的,没有 1 亿条了,只有 table1 的条数 100w 多吧。
    echowuhao
        4
    echowuhao  
       2020-12-01 12:06:15 +08:00
    你实际测一下。表虽然 row size 多了一点,但是 postgres 可以有更多信息优化,你堆到 jsonb 里面,postgres 能知道的信息更少,查询的时候就要麻烦了。

    我个人没有做过那么大的表,所以只能理论说一下。
    echowuhao
        5
    echowuhao  
       2020-12-01 12:08:54 +08:00
    @FightPig 没有一亿条了,但是 content 字符出现的次数不是 table1 row size 而是 table 2 的。你之前只寸这个字符一次,就是列名,但是你存到 jsonb 里面不是一百万次,而是一亿次。只一亿次是凭空多出来的存储空间。
    2kCS5c0b0ITXE5k2
        6
    2kCS5c0b0ITXE5k2  
       2020-12-01 12:09:54 +08:00
    先确定 table2 需不需要单独查询 如果不需要可以用 jsonb
    json 存储起来占用的空间会比较大
    sjzzz
        7
    sjzzz  
       2020-12-01 13:08:04 +08:00
    这种最终还是要看 后续的业务逻辑 光分析表结构意义不大。
    FightPig
        8
    FightPig  
    OP
       2020-12-01 13:10:37 +08:00
    @echowuhao 嗯,我单独插入 1 亿条试了下,在加了外键索引下,查询 还行,毕竟一条记录只关联 2000 多条 table2,
    @emeab table2 要更新,比如要改下{content1: 'content1', content2: 'content2'}更新成{content1: 'content1111', content2: 'content2'},查询的话,只是要取出 这个 jsonb 的 key 成一个数组 ['content1','content2'] ,然后用这个数组去查另一张表里的数据 。
    F281M6Dh8DXpD1g2
        9
    F281M6Dh8DXpD1g2  
       2020-12-01 13:11:38 +08:00
    肯定分开啊,不然你 update 别的字段的时候 jsonb 也被读了一遍
    FightPig
        10
    FightPig  
    OP
       2020-12-03 14:53:45 +08:00
    @liprais
    @sjzzz 放弃 jsonb 了,在我这两天测试,加入 2000 项后, 查询表时慢的不行,google 看了下好像是 pg 的 jsonb 用了 TOAST,换成了 mongodb 了
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2712 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 438ms UTC 12:06 PVG 20:06 LAX 05:06 JFK 08:06
    Do have faith in what you're doing.
    (function(i,s,o,g,r,a,m){i['GoogleAnalyticsObject']=r;i[r]=i[r]||function(){ (i[r].q=i[r].q||[]).push(arguments)},i[r].l=1*new Date();a=s.createElement(o), m=s.getElementsByTagName(o)[0];a.async=1;a.src=g;m.parentNode.insertBefore(a,m) })(window,document,'script','//www.google-analytics.com/analytics.js','ga'); ga('create', 'UA-11940834-2', 'v2ex.com'); ga('send', 'pageview'); ga('send', 'event', 'Node', 'topic', 'postgresql'); ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86