碎碎念:什么时候硬件+llm 的发展能让码农像部署 nas 一样部署一个家用 llm - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要在回答技术问题时复制粘贴 AI 生成的内容
YanSeven
V2EX    程序员

碎碎念:什么时候硬件+llm 的发展能让码农像部署 nas 一样部署一个家用 llm

  •  
  •   YanSeven 4 小时 3 分钟前 928 次点击
    有生之年有可能吗。

    1. 硬件价格打下来。
    2. LLM 开源模型能媲美顶尖模型
    14 条回复    2026-03-09 14:36:39 +08:00
    sagnitude
        1
    sagnitude  
       3 小时 52 分钟前
    现在就可以啊。mac studio m3 ultra 四台联机,2T 内存,轻松部署 kimi k2.5 ,你要是日常用的话 mac mini 部署个小模型就行了
    stinkytofux
        2
    stinkytofux  
       3 小时 50 分钟前
    完全有可能, 而且这个需求会被极大的推动. 因为不想数据泄露, 不管是个人还是公司, 都有私有部署大模型的需求.
    MomoBD
        3
    MomoBD  
       3 小时 49 分钟前
    @sagnitude #1 我觉得主要还得等小模型的性能上来了以后才行吧。现在小模型的性能有点一言难尽。大模型本地部署的话算力需求又太高了
    msg7086
        4
    msg7086  
       3 小时 40 分钟前
    顶尖模型需要非常高的成本来训练
    如果顶尖模型开源,谁来付高昂的训练费用
    没有资金的支持,模型怎么保持在顶尖位置
    得等到了模型瓶颈期了,很难提高了,没有发展了,泡沫破裂了,大批公司倒闭了,那有机会。
    msg7086
        5
    msg7086  
       3 小时 31 分钟前
    顺便一提,家用 NAS 是一种成本很低的东西。不追求产量低的精致成品 NAS ,只是随便搭一下的话,弄台旧电脑装个系统就起来了,笔记本插 USB 硬盘也不是不行。
    自建小型 LLM 设备那就是用很大的初期投入换很低的性能或质量。
    现在家用级别你配置拉满 128GB 统一内存 AMD AI 平台也就跑 70B-120B 规模的模型。
    差不多相当于一个 Gemini 3.0 Flash 的水平,但后者现在的运行速度是本地部署的 10 倍以上了。
    bigmomo
        6
    bigmomo  
       3 小时 10 分钟前
    恐怕得十年起步
    yukinotech
        7
    yukinotech  
       2 小时 45 分钟前
    把模型刻在内存里,把模型推理结构刻到芯片里,已经有了
    unusualcat
        8
    unusualcat  
       2 小时 23 分钟前
    现在家用级别你配置拉满 128GB 统一内存 AMD AI 平台也就跑 70B-120B 规模的模型。
    家用 NAS 的 AMD CPU 怎么能跑得起来 70-120B 的模型呢?
    我笔记本 GTX 1060 6GB 独立显存,40GB RAM ,ollama 本地跑 8b 的模型都勉强啊,只能说能用。速度明显感觉卡慢
    lujiaosama
        9
    lujiaosama  
       2 小时 15 分钟前
    @yukinotech 专用硬件?相当于一个固化版本的本地大模型? 如果价格足够便宜确实是值得考虑的.
    jackOff
        10
    jackOff  
       1 小时 29 分钟前
    @yukinotech 这个好像有缺陷,无法升级,只能不停的买新的硬件
    dajj
        11
    dajj  
       1 小时 16 分钟前
    直接调接口就行了,何必非得本地运行模型。 如果你担心隐私,找个不要你隐私的,比如 cloudflare
    raysonlu
        12
    raysonlu  
       31 分钟前
    这么说吧,80 年前第一台计算机有差不多 4 个教室大,而当时的计算机甚至还不能玩贪吃蛇和扫雷。照这么看还是有盼头的。
    gpt5
        13
    gpt5  
       17 分钟前
    或许 ai 更像电力,我们没必要每个人都开一个发电厂。
    ffLoveJava
        14
    ffLoveJava  
       8 分钟前
    nas 的普及得益于 前几年存储的白菜价 以及监管的铁拳。 要是能把国产芯片的算力匹敌英伟达 a 再加上 llm 被限制到全是敏感词 那铁定 llm paas 产品大兴
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     5693 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 37ms UTC 06:45 PVG 14:45 LAX 23:45 JFK 02:45
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86