实验室要买一台机器用来机器学习,主要跑图像训练(不是特别大的模型)。
但是 4090 现在实在是太贵了,导师给的 2w 的预算。
我看了一下拯救者 14 代 i7+4080 价格是 2w 左右,这种配置跑训练够用吗?
还是说 i5+2 到 3 张 4070ti 比较实用?
由于导师指定了经销商,所以买二手矿卡/锻炼卡/捡垃圾好像不太行。
v 友有没有推荐的配置单?
![]() | 1 skwyl 2023-11-22 11:00:24 +08:00 其实没必要直接上 40 系 30 得也不是不行,组个阵列,你们搞图像得 CPU 够用就行,显卡方面使劲叠 |
![]() | 2 k9982874 2023-11-22 11:02:17 +08:00 《指定了经销商》你还操心个鸡毛啊,报一下预算和需求让经销商给配置 |
![]() | 3 JayZXu 2023-11-22 11:06:28 +08:00 |
![]() | 4 x86 2023-11-22 11:08:35 +08:00 2.5k 上魔改 2080ti 改 22g |
5 V1Eerie 2023-11-22 11:16:41 +08:00 移动端 4080 不太行吧,最好还是桌面级 GPU |
![]() | 6 doanything 2023-11-22 11:21:05 +08:00 "指定了经销商" 你还让 V 友推荐,我们报个配置是 3090 ,结果经销商只能给到 3060 怎么办,建议给预算报给经销商就行 |
7 cctv180 2023-11-22 11:37:37 +08:00 +1024 《指定了经销商》你还操心个鸡毛啊,报一下预算和需求让经销商给配置 |
![]() | 8 610915518 2023-11-22 11:59:25 +08:00 问经销商啊。。。 |
9 paopjian 2023-11-22 12:07:29 +08:00 老师指定了经销商,就别自作主张了,人家给什么你用什么,最后没成果不是你的问题 |
10 ezrameow 2023-11-22 12:24:00 +08:00 买 3090 啊 那个便宜 |
![]() | 11 beneo 2023-11-22 13:17:16 +08:00 直接上阿里云不好么? |
![]() | 12 fanxasy 2023-11-22 13:25:45 +08:00 求求你了让你导师多挣一点吧 |
13 Cineray OP |
![]() | 18 cherryas 2023-11-22 14:06:38 +08:00 那就用 3090 呗,只是慢一倍的 4090 罢了。 |
19 SixGodHave7 2023-11-22 14:25:13 +08:00 我记得有张图,学校采购公布,采购显卡 |
20 kestrelBright 2023-11-22 14:28:29 +08:00 移动端还是算了吧 |
21 aeli 2023-11-22 14:29:39 +08:00 假的机器学习: 云端租一台 真的机器学习:2w 买张 4090 打光追游戏 |
22 guoziq09 2023-11-22 14:41:40 +08:00 我倒是有一台 想问下 op ,怎么用才算物尽其用 |
24 Cineray OP @cherryas 我有点疑惑比如 2 张 4080(4070ti)和 1 张 4090 哪个好一点?(目前价格差不多情况下 |
![]() | 26 fenfire 2023-11-22 15:04:27 +08:00 B 站看到个 UP 买了 2 张 2080ti ,都改成 24g 显存,跑 ai 性能挺不错的 |
27 paopjian 2023-11-22 15:18:31 +08:00 cuda 数越多越好,用的人多就多卡,显存 12g 往上最好 |
![]() | 28 israinbow 2023-11-22 15:24:51 +08:00 |
29 xz410236056 2023-11-22 15:29:30 +08:00 @x86 #4 你以为玩游戏呢。。。。4090 CUDA 数量 16384 个 2080ti 4352 个。 |
30 GuLuDaDuiZhang 2023-11-22 15:30:52 +08:00 报 3090ti 或者 3090 看经销商有没有呗。除非你非常肯定跑的模型 12g 或者 16g 显存够用,不然还是上大显存吧,跑的慢是一回事,但跑不起来就尴尬了,不然也不会有魔改显存的 2080ti 。 |
![]() | 31 x86 2023-11-22 15:30:52 +08:00 @xz410236056 #29 你不看价格的是吧 |
32 xz410236056 2023-11-22 15:38:32 +08:00 ![]() |
33 cbythe434 2023-11-22 15:51:10 +08:00 看似有点选,其实只能选 3090 |
![]() | 34 manasheep 2023-11-22 16:00:59 +08:00 蹲亚马逊吧,前些天还有几个 1W5 以内的,后面看看有没有补货 |
35 Grefer 2023-11-22 16:12:46 +08:00 ![]() 从 NewEgg 上买了微星的水超龙 4090 ,本来 1747 刀就可以拿下的,因为一开始亚马逊耍猴迟迟不发货,最后所有平台都涨价了,1999 拿下的,给你参考一下 |
36 NoOneNoBody 2023-11-22 16:22:56 +08:00 指定经销商,但预算不够,这是让你贴钱么? 看你的模型多大,不大的话甚至纯 CPU 也能跑,放实验室通宵跑就是了,所以根据模型选算力 |
![]() | 37 vincent7245 2023-11-22 16:24:34 +08:00 ”导师指定了经销商“,所以就照着 2W 花呗,你花的越多你导师越开心 |
41 loolac 2023-11-22 17:26:40 +08:00 不是说“基于 ROCm5.6 ,AMD 7900 XTX 可以达到 NVIDIA 4090 速度的 80%”吗?不考虑操作系统的话可以考虑下。 |
![]() | 42 pHz 2023-11-22 17:29:04 +08:00 能上 4090 就上吧,同样模型训练比 3090 快不到一倍。 |
![]() | 43 ihehe 2023-11-22 17:40:21 +08:00 via iPhone 话说元旦游一趟日本,可以背回一张 技嘉的 4090 ; 1.5w 有人要不? 亚马逊上买 |
44 littlewing 2023-11-22 17:52:18 +08:00 云 |
45 AkaHanshan 2023-11-22 18:16:58 +08:00 2080ti 性价比的前提可能是 22 g 的魔改版,可以问一下 你搞深度学习,没钱的情况下肯定是得先悠着显存来,不然模型跑不下不还是白给 |
49 cwyalpha 2023-11-26 19:56:03 +08:00 via iPhone 23999 目前怎么做到这个配置? z790+32G+1T+1000w+14900kf+4090 |
![]() | 54 shm7 2024-02-27 17:27:17 +08:00 是不是买台顶配 Macmini 好点 |