目前性价比最高的跑本地大模型显卡是? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
lemonTreeTop
V2EX    Local LLM

目前性价比最高的跑本地大模型显卡是?

  •  
  •   lemonTreeTop 131 天前 2278 次点击
    这是一个创建于 131 天前的主题,其中的信息可能已经有所发展或是发生改变。
    18 条回复    2025-08-16 12:45:42 +08:00
    ihainan
        1
    ihainan  
       131 天前
    多大的模型。
    atom42
        2
    atom42  
       131 天前
    mac mini ?
    lemonTreeTop
        3
    lemonTreeTop  
    OP
       131 天前
    @ihainan 效果比较好的
    lemonTreeTop
        4
    lemonTreeTop  
    OP
       131 天前
    @ihainan 比如可以跑 gemma3 27b
    coefu
        5
    coefu  
       131 天前
    在线 api 。
    Greendays
        6
    Greendays  
       131 天前   1
    不考虑改装显卡的话,4060ti 16G ?或者 3060 12G ?不过这些都跑不了 32B 模型,撑死了 14B 。Mac mini 用 36G 统一内存能跑 32B 模型,但是速度据说很慢的。
    xziar
        7
    xziar  
       131 天前
    来两张 16G 的卡开 TP 跑呗,4bit 能开很长的上下文了
    chen1210
        8
    chen1210  
       131 天前   1
    gemma3 27b 啊。M4Pro 吧
    defaqman
        9
    defaqman  
       131 天前
    4080 我感觉挺不错的,显存以及性能都不错
    murmur
        10
    murmur  
       131 天前
    本地大模型纯玩具啊,量化模型效果差的 1b ,不如去买 api ,还是画画涩图,处理下音乐提取个伴奏靠谱点

    但是人家也是 NV+win 就是一键包,什么环境不需要双击就用,mac 对不起自己折腾代码去吧
    lemonTreeTop
        11
    lemonTreeTop  
    OP
       131 天前
    好家伙,标签给推荐了 3090 ,查了下是 24G 显存,能跑 gemma3 27b 量化版本
    woojanelook
        12
    woojanelook  
       131 天前   1
    魔改的 2080ti 22g 2000 多,应该是最便宜的单张显存,刚好够跑 flux 模型
    YsHaNg
        13
    YsHaNg  
       131 天前 via iPhone
    @murmur 公司禁止使用 public provider 并且个人文档经常需要召回护照号之类的还是算了 ollama run 一下也没啥难的 发现中美真的非常喜欢调 api
    irrigate2554
        14
    irrigate2554  
       131 天前   1
    @lemonTreeTop 2080ti 22G 不仅可以跑,还快,上下文还多
    mumbler
        15
    mumbler  
       131 天前
    2080 ti 22G 没有之一,2500 元左右,支持 nvlink 两块并联 44G
    mumbler
        16
    mumbler  
       131 天前
    @murmur #10 这个观点已经非常落后了,本地有本地的场景,比如合同审核,本地用 qwen3 30B 都做得非常好了,纯 CPU 就能流畅运行,哪个公司的合同敢传云端 API 去处理
    CoffeeY
        17
    CoffeeY  
       125 天前
    纯显卡层面说的话,性价比高的应该是 2080ti 22G 了,还可多卡 nvlink
    goodboy95
        18
    goodboy95  
       59 天前 via Android
    @murmur 一年前就有非纯玩具的模型了,基于 qwen 2.5 32B 微调的 sakura 翻译模型,翻译日本轻小说这方面是真不错,个人感觉虽然肯定比不上真人,也时不时搞错人称代词,但至少比 gpt-4o 要明显地强。
    如果一部小说等不到人工翻译的话,这模型就相当够用了。
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     921 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 24ms UTC 22:05 PVG 06:05 LAX 15:05 JFK 18:05
    Do have faith in what you're doing.
    ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86