NAS 怎样使用 ai 项目? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要把任何和邀请码有关的内容发到 NAS 节点。

邀请码相关的内容请使用 /go/in 节点。

如果没有发送到 /go/in,那么会被移动到 /go/pointless 同时账号会被降权。如果持续触发这样的移动,会导致账号被禁用。
guiyumin
V2EX    NAS

NAS 怎样使用 ai 项目?

  •  
  •   guiumin 1 月 2 日 3751 次点击
    这是一个创建于 57 天前的主题,其中的信息可能已经有所发展或是发生改变。

    各位好

    nas 能用 gpu 吗?

    如果不能用,大家在 nas 上安装的 ai 项目可能就会比较慢,对吧

    这个怎么解决呢?谢谢

    我查了一下,似乎只有少数高端 nas 有 gpu ,难道 nas 就只能用于下载或者运行一些普通项目?

    第 1 条附言    1 月 2 日
    问了 ChatGPT ,建议用 GPU Worker
    34 条回复    2026-01-10 23:03:40 +08:00
    yolee599
        1
    yolee599  
       1 月 2 日 via Android
    可以加算力卡
    cpstar
        2
    cpstar  
       1 月 2 日   2
    要不再温习一下 NAS 三个字母的意义呢。。。原本就是个存储。

    NAS 可以扩展 PCIE 的话,加一块卡就完活了。如果不能扩展,API 调用模型接口呗。核心不是本地算力,核心是算力用于干啥。
    renmu
        3
    renmu  
       1 月 2 日 via Android
    再买一个 ai 服务器,如果不行,那就用别人的服务吧
    evan9527
        4
    evan9527  
       1 月 2 日
    调用 api 呗。
    guiyumin
        5
    guiyumin  
    OP
       1 月 2 日 via iPhone
    @cpstar
    @renmu
    @evan9527

    我想把 vget 加上语音转文字,文字转语音,以及 ocr 功能

    但发现 NAS 没法用本地 gpu
    dilidilid
        6
    dilidilid  
       1 月 2 日
    你的这些需求,都是用现成的 API 会比较好,折腾本地 AI 的意义除了研究目的,就是生成一些云服务不能满足的色情、灰色内容,或者部分公司有极高的保密需求,你如果不是其中之一完全没有必要。
    SingeeKing
        7
    SingeeKing  
    PRO
       1 月 2 日
    标准的 NAS 确实完全没有必要配备 GPU ,因为通常根本没考虑需要连接显示器之类的,而想跑 AI 的 GPU 价格高到不可能作为标配

    如楼上所说,有空余 PCIe 的话完全可以自己插一块 GPU 上去

    不过我的建议是,去买一套英伟达 Jetson AGX Thor 单独用,毕竟加装会影响 NAS 的美观。。
    guiyumin
        8
    guiyumin  
    OP
       1 月 2 日
    @yolee599 查了一下, 算力卡不咋给力,都是 npu 这种,还是要用英伟达显卡

    问了 ChatGPT ,建议用 GPU Worker
    guiyumin
        9
    guiyumin  
    OP
       1 月 2 日
    @SingeeKing

    是的,问了 ChatGPT ,建议用 GPU Worker
    lymanbernadette6
        10
    lymanbernadette6  
       1 月 2 日
    NAS (Network Attached Storage)
    ntedshen
        11
    ntedshen  
       1 月 2 日
    bro 你这看起来还处在概念都搞不清楚的阶段。。。
    建议买个电脑。。。
    guiyumin
        12
    guiyumin  
    OP
       1 月 2 日 via iPhone
    @ntedshen 我没有 NAS
    ntedshen
        13
    ntedshen  
       1 月 2 日
    @guiyumin 你的需求:
    > 我想把 vget 加上语音转文字,文字转语音,以及 ocr 功能

    你的需求里需要包含的功能:
    下载电影
    tts/stt
    ocr

    你的附加条件:
    > 算力卡不咋给力,都是 npu 这种,还是要用英伟达显卡

    所以其实。。。
    你买一台正经 pc 加几个硬盘就可以解决上述全部需求,倒也不是非要搞个那种自称是 nas 的 nas 。。。
    反正现在这一摞 nas 系统都是 debian 底,自己装好了。。。
    Mrag
        14
    Mrag  
       1 月 3 日
    所以我没有用 nas ,我直接安装了一台常规配置的服务器+一个小机箱,能够插一张单风扇的显卡。不过我也没有用显卡的场景罢了= = ai 能力直接用 glm
    dimlau
        15
    dimlau  
       1 月 3 日
    把 Mac mini 当做 NAS 来用就是了。
    guiyumin
        16
    guiyumin  
    OP
       1 月 3 日
    @dimlau 可惜啊,docker 在 macos 里,不能用 metal
    guiyumin
        17
    guiyumin  
    OP
       1 月 3 日
    @Mrag 这个可以,这个是最靠谱的了
    zzutmebwd
        18
    zzutmebwd  
       1 月 3 日 via Android
    nas 干 nas 的活,另搞一台 ai 服务器,我的配置是 13700k+64g d5+4080s 32g
    guiyumin
        19
    guiyumin  
    OP
       1 月 3 日 via iPhone
    @zzutmebwd 可以,不错
    byuan04
        20
    byuan04  
       1 月 3 日
    我是 homelab
    14100 + 64G 内存 + 4T 固态 + tesla t10 16Gx2

    待机功耗 CPU 12w / tesla t10 每张 10w 满载 150w 1100rmb 一张
    keller
        21
    keller  
       1 月 3 日
    完全没必要在本地跑大模型,因为大多时间一定是闲置的,但是可以在本地搭建自己的知识库、agent 等。
    bowencool
        22
    bowencool  
       1 月 3 日
    @guiyumin #12 NAS 就是一台常年开机的电脑而已,什么 NAS 有这限制那限制的,别胡扯了,听起来太滑稽
    rockyastor
        23
    rockyastor  
       1 月 3 日
    我是 NAS 去调用有显卡的台式机的 Ollama Server 来实现的
    aliipay
        24
    aliipay  
       1 月 4 日
    @guiyumin 核显性能也很一般,如果没有太多速度要求倒是可以考虑下。
    zzutmebwd
        25
    zzutmebwd  
       1 月 4 日 via Android
    @keller 知识库求推荐方案 很多个人笔记和行业规范需要用
    guiyumin
        26
    guiyumin  
    OP
       1 月 4 日
    @rockyastor 这个可以
    gegewu0927
        27
    gegewu0927  
       1 月 4 日
    https://lazycat.cloud/ 有个组合拳
    312ybj
        28
    312ybj  
       1 月 4 日
    哈哈, 我研究过这个,想要 all in 1 挺难的。 但是如果做简单的还是可以的,比如相册归类,人脸聚类,这个下载开源的 clip 模型都能做,跑 cpu 就是了,模型量化下,内存加大点就能跑了,后台慢慢跑,性能消耗还行;要是 ASR 也行,本地 ASR 模型 + ffmpeg 转码 也能后台跑, 要是知识库,也行, 上一些大的向量模型也行。 基本上来说就是速度问题, 如果你能接受 n150 之类的 cpu 模型推理速度, 那就能上, 如果你自己加 GPU , 那当然是最好的,不然 nas 的低功耗 cpu 速度是真的慢
    SakuraYuki
        29
    SakuraYuki  
       1 月 4 日
    买块独显插上去呗,又不是没有 pcie 插槽
    DongFengPro
        30
    DongFengPro  
       1 月 4 日
    一看就知道楼主想买成品 nas ,自己组装不好吗,虽然现在硬件价格飙升就是了。装个 truenas 、unraid 之类的就行了,想复杂点就装个 pve 上去再装 nas 系统
    nexius
        31
    nexius  
       1 月 4 日
    请教一个问题:
    nexius
        32
    nexius  
       1 月 4 日
    请教一个问题:

    能否 nas 安装 Dify ,nas 充当一个知识库的角色,
    输入:
    文档-》分段与清洗-》 nas

    问答:
    ai 问答-》知识检索-》 LLM 服务器-》回答
    guiyumin
        33
    guiyumin  
    OP
       1 月 5 日
    @DongFengPro 我在做一个项目 https://vget.io

    有 cli 和 docker ,cli 里集成了 whisper 和 sherpa-onnx ,可以做语音转文字

    但 docker 就复杂了,因为 docker 要面对的是 windows ,linux ,和 macos

    macos 的 docker 是明确不能用 metal 的

    linux 和 windows 可以用宿主机的 gpu ,但需要一些配置

    然后我就了解到,大多数 nas 机器其实没有 gpu ,性能太差

    所以我就来问问

    现在大家的回复是,最靠谱就是用,如果真想用 gpu ,就不要用 nas ,而是单独配置一个机器带 gpu

    我觉得这是可行的
    aliipay
        34
    aliipay  
       1 月 10 日
    @guiyumin 绿联的 iDX 有 ai 对话、音频转文字、总结之类的功能
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2854 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 28ms UTC 02:39 PVG 10:39 LAX 18:39 JFK 21:39
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86