
1 qweruiop 2023-10-06 11:39:36 +08:00 一样慢,我专门买了个 rog 来生图。。。mac 就别指望了。。。 |
2 seres 2023-10-06 12:20:13 +08:00 提升都不大 不如抠出三千,E5 + 2080ti 改 22G 给你飞一般的画图体验 |
3 zooo 2023-10-06 12:52:03 +08:00 非 mac 跑的 前几天跑过,发现内存需求挺大的,48G 内存不够用,把 swap 拉高才能跑,我理解的 GPU 显存大小越大越好,不过听说 mac 的显存和内存是同一个,那就是内存越大越好,至少 64G |
4 zooo 2023-10-06 12:53:00 +08:00 另外,跑图慢倒无所谓,现在要出效果好,得用大模型,模型越来越大,比较吃显存 |
5 zooo 2023-10-06 13:01:43 +08:00 Mac 的 GPU 比 N 卡 3090 跑图速度更快么,不清楚 Mac 芯片真正用来跑模型的速度,业界大多都用的 N 卡跑的吧 |
6 2kCS5c0b0ITXE5k2 2023-10-06 13:02:20 +08:00 我的建议是买 4090 |
7 TabGre 2023-10-06 13:05:59 +08:00 via iPhone 你们用的什么客户端的? |
8 imqiyue 2023-10-06 13:27:16 +08:00 为什么一定要在 Mac 上跑,可以考虑搭建个 linux 环境,用 Nvidia 的显卡跑呀,出了问题还好排查 |
9 newage126 2023-10-06 13:29:46 +08:00 sd 和玩游戏一样 不适合在 macOS 上搞 |
10 youthfire 2023-10-06 13:34:42 +08:00 via iPhone windows 上 N 卡跑,mac 远程 |
13 cest 2023-10-06 14:01:09 +08:00 64G, 还可以玩玩 llm ram 是能不能动的问题 gpu 是去玩多久手机的问题 |
14 zooo 2023-10-06 14:05:13 +08:00 |
15 formant 2023-10-06 14:22:25 +08:00 2080ti 魔改 22G ,了解一下。 |
16 ybz 2023-10-06 15:30:09 +08:00 你有没有感觉 Mac 跑 sd 生成的图片很丑?使用通用模型 |
17 paopjian 2023-10-06 16:11:13 +08:00 真被忽悠瘸了啊,用 mac 跑 AI |
19 felixcode 2023-10-06 16:36:40 +08:00 |
20 lun9 2023-10-06 19:03:32 +08:00 via iPhone 专门买了 4070 来跑 |
22 ShadowPower 2023-10-06 19:17:40 +08:00 预算有限的情况下不要用 Mac 跑,因为任何一个选项都是性价比很低的选项。 作为参考,我的 4060Ti 16GB 跑 512x512 的图,用 UniPC 采样器,大约 13it/s 。 如果不得不买 Mac ,建议租 GPU VPS 来跑。 |
23 ShadowPower 2023-10-06 19:38:55 +08:00 另外,和大型语言模型是 IO 密集型任务不同,Stable Diffusion 实际上是计算密集型任务。 计算性能一般但带宽够大的设备适合前者。 Stable Diffusion 模型参数相比大型语言模型并不大,但运算量要大得多。 我用 4060Ti 16GB 就可以训练(不是推理) SDXL Lora 模型。游戏玩家会告诉你这块显卡是智商税,但玩 Stable Diffusion 的会告诉你这是非矿非改全新显卡中最实惠选择。 另外用 Stable Diffusion 直接出超高分辨率是毫无意义的,如果你生成的图像超出了训练分辨率,即: 原版 1.4 、1.5 是 512 像素边长 原版 2.0 、2.1 ,以及 NovelAI 泄露模型和衍生模型是 768 像素边长 SDXL 是 1024 边长 如果超出一点点还行。超出很多的话,并不会得到一张细节非常清晰的图,而是得到一张主体元素重复,内容四分五裂的图。只是图片看起来还能衔接起来罢了。 在使用 xformers 的情况下,我用 6GB 显存跑原版 1.5 模型都可以直出 2048x2048 。但我也就体验了一次,之后根本没有用过。 真正出大图还是用 Tile 模式,先生成一张正常的小图,然后把这张小图放大,分块,最后细化每个分块。 实际上用起来显存使用量跟生成小图差不多。 --- 虽然 N 卡 16GB 显存就可以做,但我从未听说过有人用 32GB 内存的 Mac 来做同样的事情。(指训练 SDXL 的 Lora ) |
24 hawei 2023-10-06 20:11:27 +08:00 直接开 cloud gpu |
25 wclebb 2023-10-06 20:15:30 +08:00 via iPhone 关于这个有 YTB 谈过。 ?si=XQ5sosyTctnZWblx 可以了解一下。 我个人觉得内存越大越好,速度可以慢点,内存上不去就真上不去了。 大约 11 分钟这里谈到 SD 对于大内存的优势。大内存 SD 可以出十连抽,内存低的只能抽一张。 |
26 findex 2023-10-07 00:09:48 +08:00 via iPhone 放弃 mac 。特别慢。手有 m1 和老黄家显卡,m 再怎么吹也被 n 卡吊打几个数量级。gpu 核心加显存都吃。4090 笑而不语。 你这思路很清新奇特。我觉得你想表达的是,喜欢平时用 mac 电脑,但是老 mac 太慢了需要更新换代一台。想偶尔跑跑 sd ,预算不太多,选 gpu 核心多的款式还是内存大一点的。都选的话荷包不太够,给个建议。 |
27 WuSiYu 2023-10-07 02:21:10 +08:00 跑 sd 就用 4090 吧,跑推理的话显存需求不大,24G 完全够用。而别的实现连 flash attention 都没有,反而会需要更多的内存,O ( n )和 O ( n^2 )的区别。 mac 是很一般的算力 + 大容量的(内存)显存的组合,唯一的用处是跑单 batch LLM 推理这种极为特殊的 workload ,跑别的计算密集的负载,比如 stable diffusion ,都极为拉垮:m2 max gpu 的 fp16 性能为 26.98 TFLOP/s ,而 4090 为 350 TFLOP/s 以上( tensor core ) |
28 justaname 2023-10-07 03:04:53 +08:00 via iPhone 原来还真有人信了 mac 那残疾独显(除开低功耗区间的能效比优势)能跑 DL 呀…… |
29 winglight2016 2023-10-07 08:45:29 +08:00 你要出图为啥要本地运行,脚本写好,在云端服务器跑才是王道。用你购买设备的钱,足够出 10w+的图了 |
30 huihushijie1996 2023-10-07 09:14:56 +08:00 |
31 ApmI00 2023-10-07 09:19:57 +08:00 @huihushijie1996 别说 m1 系列了,A 卡都得劲。老老实实老黄家的吧 |
32 devHang 2023-10-07 09:26:34 +08:00 mac 跑 sd 就纯折磨。 至少我是 32G 的 M1 Pro ,用起来只能算是勉强可以出图。512 的图 25 step ,也要 1 分钟左右。 |
34 ykk 2023-10-07 09:28:01 +08:00 |
35 sharpy 2023-10-07 09:39:06 +08:00 跑语言模型可以用 mac ,跑图尽量还是上英伟达吧 |
36 huihushijie1996 2023-10-07 09:42:09 +08:00 @ApmI00 没用过 mac 我还以为可以跑 emmm |
37 Lambert2022 2023-10-07 09:47:15 +08:00 直接用 Poe 上的 |
38 nno 2023-10-07 09:47:57 +08:00 @ShadowPower 模型都是计算密集型,包括语言模型 |
39 ShadowPower 2023-10-07 10:16:53 +08:00 @nno GPT 、LLaMa 和类似的模型都不是,否则模型量化都不会提升效率。 因为量化不会降低计算量,实际计算的时候都先还原成 float16 再计算…… |
40 ShadowPower 2023-10-07 10:20:24 +08:00 @nno 另外,实际上加大 batch size 以及使用 flash attention (指第一代,因为第二代还有比如尽可能利用矩阵乘法之类的技巧)能提高效率,还是因为能缓解 IO 瓶颈…… 运算性能出现瓶颈而 IO 还没有瓶颈的情况下,加大 batch size 不会节省多少时间,和跑多次差不多。 |
41 lianchi 2023-10-07 10:23:51 +08:00 我试过用 M1 Max ( 32G 内存,24 核 GPU )跑 SD ,第一次出现了 M1 发烫、风扇猛转的情况。出图速度没达到预期。 |
42 hpan 2023-10-07 10:33:17 +08:00 没有 M2 用户现身说法一下? |
43 zsc8917zsc 2023-10-07 10:47:44 +08:00 M2MAX 32G 实测 不能训练 Lora ,训练出来的模型效果是黑色的。 出图慢,会发烫,会站交换内存,交换内存释放不了会卡点很厉害。 |
44 t1cb2v754F32JdOs 2023-10-07 11:09:45 +08:00 M1Pro 在没有跑 SD 之前没热过,没听到过风扇声音。 跑了几次后,即使不用 SD ,经常发热,时常听到风扇声音。 |
45 ShadowPower 2023-10-07 11:58:17 +08:00 |
46 evan9527 2023-10-07 13:47:51 +08:00 顶配都不管事,还是买一台 n 卡的 pc 吧。 |
47 Moker 2023-10-07 13:52:18 +08:00 有钱 4090 没钱 3080 CPU 带不动的,这东西得上 GPU |
48 jevonszmx 2023-10-07 19:55:28 +08:00 有钱 4090 ,没钱 P100 矿卡 100 块搞定 |
49 sl450282169 2023-10-11 14:28:03 +08:00 不建议使用 M 系列跑 sd,首先是由于平台差异,计算结果会跟 x86 不一样,差别还有点大.其次就是由于部分功能依赖于 N 卡的某些东西,在 Mac 上跑不起来.会特别慢 我之前在我电脑(M1 max 64G)上跑 SD,感觉 cpu 还好,内存占用会比较高 |
50 COOLEER 2023-11-14 10:39:42 +08:00 M 系列可以用 Draw Things 跑,最新的版本比之前版本优化很多,功耗都降了不少 |