V2EX babyedi31996 的所有回复 第 1 页 / 共 4 页
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX    babyedi31996    全部回复第 1 页 / 共 4 页
回复总数  61
1  2  3  4  
@wm5d8b ROS 连上对端 wireguard,可以访问对端的局域网了.
但是对端访问不了 ROS 这边...静态啥的全弄好了,还是不行.
最后无奈还是 zerotier
@ooh B 端配了静态路由了,还是没效果.B 端是没有 ipv6 访问能力的
@pakro888 可以推荐个教程吗,谢谢
236 天前
回复了 selected2318 创建的主题 程序员 Grok 给广告费了吗?
何止给了,简直是大撒币了.
全球,全语言,全网的 KOL 都收到了推广...
无论是油管/阿 b/某音各种,平时讲 AI 的不讲 AI 的都在推.
标题都是类似的什么最强 AI.
甚至有些平时是吃爱国饭的博主,都在用这种最强 AI 的标题发视频讲 grok,
比如那个什么海 X 博士
236 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@halida 要配合 live2D 和 TTS,这样才带劲
345 天前
回复了 mazz 创建的主题 NAS 各位爹,企业级 200TB 左右 NAS 求推荐
要稳和单纯存储,群晖是最好的没有之一了.
我的 418PLAY 刚出就买了,到现在都很稳.
如果有其他需求,直接 PVE 按按需安装吧,也有 Raid5
348 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@supemaomao 在阿 B 搜酒馆就有了
349 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@supemaomao 没,跟视频教程一步一步很简单。最麻烦就是弄 cuda
349 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@Hookery 好多佬友都推荐 qwen,这个模型效果好?
349 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@guiyun 7b 效果如何?
349 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@WuDiHaiTai 4090 也才 24G 阿,最多就是玩下 20b 了
349 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@NGGTI api 是不贵,但是审查和隐私问题阿
349 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@LaTero 感谢你的经验分享,"如果我写的东西都不会被封,你也不需要担心……而速度快( command r+ 60 token/s )选项多是实打实的。"我懂这句的含金量了.哈哈
349 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@shuimugan 官翻+员工优惠在哪里可以买到?
349 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@yshtcn 是可以的,我看林亦在 b 站的视频,他是用 120G 统一内存的 Mac Studio 跑 120b 量化模型.好像也有 4-5t/s 没记错的话.
349 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@fulajickhz 长见识了,感谢这位佬友.我去看看学习下.
350 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@halida 尝鲜嘛,就像 30 年前能花 5000 买个人 PC 的那些人一样~
350 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@shuimugan 教育优惠顶配芯片的 192G M2 Mac Studio 大概 47000.要不要等等 M4 的新款?
350 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@shuimugan "所以 Mac 跑大语言模型推理,只有 Ultra 系列的大带宽 + 大内存这样的顶配合适,而且跑相同参数量的模型,速度基本上是多张 2080ti 22g 组成相同显存的服务器跑推理速度的 1/3 ~ 1/2 ,当然优点也非常明显,很省电很不占空间,甚至还能通过雷电口串联 4 个 Mac Studio 来跑分布式推理,可以跑更大的模型。"

就凭大佬您的经验,以上这个优点就秒杀自己组建 PC 了.
2080ti 22G 都是魔改卡,稳定性和质量都太不稳定了,后期维护/耗电/噪音/空间占用的等等耗费的精力远超省下来的价值.
这套机器不玩了之后只能卖废铁,但是 Ultra 系列随便卖都有人要
350 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@shuimugan "如果你用显卡 + CPU 跑,那么带宽指的就是就是显卡带宽 + 内存带宽(这个是最垃圾的组合,我愿称之为拖后腿)"
这句说得太对了,本来量化 13b 还有 4~5t/s 的.gguf 在爆显存之后,直接蜗牛...什么玩的心情都没了.

太专业了,感谢,受益匪浅.
1  2  3  4  
关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     927 人在线   最高记录 6679       Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 16ms UTC 20:21 PVG 04:21 LAX 13:21 JFK 16:21
Do have faith in what you're doing.
ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86