
1 icestraw 2024-11-28 14:20:03 +08:00 我跑了,内存够,可以跑,速度一样,半分多钟才出结果,GPU 和内存性能低了。Pro 和 Max 会好一些 不过真要用肯定直接接别家 API 了,搞开发的话,哪怕是 max ,好像修改模型的性能根本不够,一时间还真想不到应用场景...只能说可以学习的时候用下。有谁想得到其他的应用场景吗? |
2 winglight2016 2024-11-28 14:22:27 +08:00 @icestraw 只能用于开发验证流程,日常使用还是 chatgpt 。我试过 11b 和 90b ,只有后者还能勉强跟 chatgpt 比,前者实际效果很差,几乎没有实用价值。 |
3 Hookery 2024-11-28 14:26:39 +08:00 因为内存和显存是共用的,所有 16G 内存可用部分肯定是小于一张显卡 16G 显存的可用部分。单纯推理的话,性价比不如 4060TI 16G |
4 yavdein OP |
5 mkdirmushroom 2024-11-28 14:32:55 +08:00 同样的 qwen2.5 14B q4 量化模型,推理速度 m4 16g 不如 m1 pro 32g 。大模型对内存带宽的要求挺高的,m4 的内存带宽只有 120GB/s 。 至于应用场景,我之前也很推崇本地大模型,毕竟数据隐私能够得到保证。但是目前开源模型( 32B 以下)的质量明显不如商用模型,真的硬要找个应用场景的话,放在家里当个智能语音助手蛮好。 |
6 zfyStars &nbs; 2024-11-28 14:42:36 +08:00 没必要吧 |
7 mkdirmushroom 2024-11-28 14:43:17 +08:00 @yavdein https://qwenlm.github.io/blog/qwq-32b-preview/ 看数据很厉害,实际效果就不知道了,我已经不想测试了哈哈,前面好几个开源模型脚踢 o1 ,拳打 Claude3.5 的,实际测试效果真的很一般。 |
8 Donaldo 2024-11-28 16:06:53 +08:00 如果是需要用 Mac 顺便体验一下本地模型,那没问题。专门买来就不值得了,那推理速度能忍?我这 M4 Pro 的推理 14B 的模型和 1080ti 速度没什么区别。。。 |
9 noobjalen 2024-11-28 16:08:34 +08:00 官网下单体验十四天 |
10 ShadowPower 2024-11-28 20:40:14 +08:00 不行,丐版 Mac Mini M4 的内存还没我的显存大 不如给台式机加一块 16GB 显存的 4060Ti |
11 ShadowPower 2024-11-28 20:43:28 +08:00 @mkdirmushroom 我今天测过这个模型,没有达到我的预期…… |
12 wsbqdyhm 2024-11-28 21:47:37 +08:00 我用 m1 max 64g 勉强可以跑一跑 |
13 rick13 2024-11-28 21:54:13 +08:00 可以看一下这个视频,看起来真挺能打的 |
14 okakuyang 2024-11-28 22:11:58 +08:00 别人是用集群,苹果有一个可以集群的框架,要用哪个方式跑 |
16 yavdein OP |
17 winson030 44 天前 via iPhone qwen3-4b 可以用,搭配搜索功能做查询助手挺好用的。 |