根据 B 站视频苹果 macmini m4 安装离线版本的 deepseek和Deepseek 本地部署 14b 、32b 、70b 简单横评分享的信息, 丐版 MacMini 应该能跑 14b 模型
但是 14b 的模型比较傻,不知道如果用两台丐版 Macmini 用雷电 4 线并联能否跑 32b 模型?
速度怎样? 能否用两条雷电 4 线实现带宽翻番的效果?
希望又设备的大佬能测试一下
![]() | 1 AoEiuV020JP 248 天前 ![]() |
![]() | 2 lon91ong OP @AoEiuV020JP 看主楼第二个 B 站视频,14b 结果错误,32b 起码能得到正确答案 |
![]() | 3 lon91ong OP @AoEiuV020JP 2000$ ×8 会不会比堆 Nvidia 计算卡来的性价比更高呢? |
4 pigdragon 247 天前 真要想搞,等着 nvidia 的 project digit 那个桌面迷你机来用吧,内存 128g,算力比 4090 高,没比 5090....5 月开卖 |
![]() | 5 Chicagoake 228 天前 本地能跑的效果不太好,拿 iMac 24G 跑过。 |
![]() | 6 Felixchen1062 226 天前 @lon91ong 不会 exo-lab 不是只支持 mac 可以串 2080ti 和 mac 一样的操作 一样的自服务发现 但是只能用 linux |