# 2026 免费 AI 额度全攻略: 15 个平台,手把手教你领 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
rxc420902911
V2EX    AI Tools 精品 AI 工具导航

# 2026 免费 AI 额度全攻略: 15 个平台,手把手教你领

  •  
  •   rxc420902911
    PRO
    3 月 26 日 1420 次点击
    Claude 20 刀/月,GPT 也 20 刀/月,Cursor Pro 又要 20 刀。一个月光 AI 订阅就小一千。

    但其实,有大量平台提供**完全免费**的 AI 模额度,只是你不知道在哪领。

    我花了两周全部注册了一遍,整理出这份攻略。**分国内和国外**,每个平台都写清楚:有什么模型、给多少量、质量怎么样、要不要、怎么领。

    收藏这一篇就够了。

    ---

    ## 一、国外平台(需要)

    ### 1. Groq 速度之王

    | 维度 | 详情 |
    |------|------|
    | **模型** | Llama 3.3 70B 、Llama 4 Scout 、Qwen3 32B 、Gemma 、Mixtral |
    | **免费额度** | 每天约 14,400 次请求(按分钟重置,不是一次性的) |
    | **质量** | Llama 70B 级别,日常编程和对话足够,复杂推理稍弱 |
    | **速度** | 750 tokens/秒,体感秒回 |
    | **需要信用卡** | 不需要 |

    **怎么领:**
    1. 打开 [console.groq.com]( https://console.groq.com)
    2. 用 Google 或 GitHub 账号注册
    3. 左侧菜单 → API Keys → Create API Key
    4. 复制 Key ,完事

    **适合谁:** 需要快速响应的场景,比如 IDE 补全、实时对话。日常编程用它最爽。

    ---

    ### 2. Cerebras 额度之王

    | 维度 | 详情 |
    |------|------|
    | **模型** | Llama 4 Scout 、Llama 3.3 70B 、Qwen3 32B 、Qwen3 235B |
    | **免费额度** | 每天 100 万 tokens |
    | **质量** | 70B 级别,Qwen3 235B 质量更高 |
    | **速度** | 约 2000 tokens/秒,全网最快 |
    | **需要信用卡** | 不需要 |
    | **限制** | 单次上下文最长 8,192 tokens |

    **怎么领:**
    1. 打开 [cloud.cerebras.ai]( https://cloud.cerebras.ai)
    2. 注册账号(邮箱即可)
    3. Dashboard → API Keys → Generate
    4. 复制保存

    **适合谁:** 大量代码生成、批量翻译、长文写作。一天 100 万 token ,正常人根本用不完。

    ---

    ### 3. SambaNova 质量之王

    | 维度 | 详情 |
    |------|------|
    | **模型** | Llama 3.1 405B (开源最强)、70B 、8B |
    | **免费额度** | 每天 200K tokens ; 405B 模型限 10 RPM |
    | **质量** | 405B 是当前最强开源模型,接近 GPT-4 水平 |
    | **速度** | 快 |
    | **需要信用卡** | 不需要(不绑卡就是 Free Tier ) |

    **怎么领:**
    1. 打开 [cloud.sambanova.ai]( https://cloud.sambanova.ai)
    2. 注册
    3. 进入面板拿 API Key
    4. 选模型时选 `Meta-Llama-3.1-405B-Instruct`

    **适合谁:** 需要最强推理能力的复杂任务。405B 免费给你用,这家是最大方的。

    ---

    ### 4. Google Gemini 上下文之王

    | 维度 | 详情 |
    |------|------|
    | **模型** | Gemini 2.5 Pro 、Flash 、Flash-Lite |
    | **免费额度** | Pro: 100 次/天; Flash: 250 次/天; Flash-Lite: 1000 次/天 |
    | **质量** | Pro 接近最强闭源模型水平 |
    | **速度** | 偏慢 |
    | **需要信用卡** | 不需要 |
    | **杀手锏** | 100 万 token 上下文窗口 |

    **怎么领:**
    1. 打开 [ai.google.dev]( https://ai.google.dev)
    2. 用 Google 账号登录
    3. Get API Key → Create API Key
    4. 选一个 Google Cloud 项目(没有会自动创建)

    **适合谁:** 分析超长文档、整本书、大型代码库。100 万上下文,其他平台都做不到。

    ---

    ### 5. OpenRouter 模型超市

    | 维度 | 详情 |
    |------|------|
    | **模型** | 约 29 个免费模型:DeepSeek V3/R1 、Llama 系列、Qwen 系列、Gemini Flash 等 |
    | **免费额度** | 每天 50 次(充 $10 提升到 1000 次/天) |
    | **质量** | 取决于选哪个模型,DeepSeek R1 最强 |
    | **速度** | 中等,取决于路由 |
    | **需要信用卡** | 不需要 |

    **怎么领:**
    1. 打开 [openrouter.ai]( https://openrouter.ai)
    2. 注册
    3. Keys 页面创建 API Key
    4. 模型名加 `:free` 后缀即为免费模型(如 `deepseek/deepseek-r1:free`)

    **适合谁:** 想在一个平台试遍各种模型的人。不用分别注册,一个 Key 切所有。

    ---

    ### 6. Mistral 代码之王

    | 维度 | 详情 |
    |------|------|
    | **模型** | Mistral Large 、Small 3.1 、Codestral (代码专用)、Pixtral |
    | **免费额度** | 每月 10 亿 tokens ( Experiment 层),但限速 2 RPM |
    | **质量** | Codestral 是最强代码模型之一 |
    | **速度** | 受 2 RPM 限制,实际体感偏慢 |
    | **需要信用卡** | 不需要 |

    **怎么领:**
    1. 打开 [console.mistral.ai]( https://console.mistral.ai)
    2. 注册,选 Experiment 计划(免费)
    3. API Keys 页面创建 Key

    **适合谁:** 写代码为主。Codestral 专门为代码优化,补全和生成质量很高。每月 10 亿 token 的量,慢点也够用。

    ---

    ### 7. Cohere 企业级 RAG

    | 维度 | 详情 |
    |------|------|
    | **模型** | Command R+、Embed 、Rerank |
    | **免费额度** | 每月 1,000 次 API 调用 |
    | **需要信用卡** | 不需要 |
    | **注册** | [dashboard.cohere.com]( https://dashboard.cohere.com) |

    **适合谁:** 做 RAG (检索增强生成)、文档问答系统。Rerank 模型是这个领域最强的。

    ---

    ### 8. Fireworks AI

    | 维度 | 详情 |
    |------|------|
    | **模型** | Qwen3 8B 、DeepSeek 等开源模型 |
    | **免费额度** | 注册送 $1 credits + Developer Tier 免费月度配额 |
    | **需要信用卡** | 不需要 |
    | **注册** | [fireworks.ai]( https://fireworks.ai) |

    ---

    ### 9. Kiro (亚马逊出品)

    | 维度 | 详情 |
    |------|------|
    | **模型** | Claude Sonnet ( Anthropic 提供) |
    | **免费额度** | 每月 50 credits + 新用户送 500 credits ( 30 天有效) |
    | **质量** | Claude Sonnet 质量,免费用到就是赚到 |

    | **需要信用卡** | 不需要 |

    **怎么领:**
    1. 下载 [Kiro IDE]( https://kiro.dev)
    2. 注册 AWS Builder ID (免费)
    3. 打开就能用,500 credits 到账

    **适合谁:** Claude 重度用户。别的平台免费给你 Llama ,这家免费给你 Claude Sonnet ,质量差距不是一个级别。

    ---

    ### 10. Windsurf

    | 维度 | 详情 |
    |------|------|
    | **模型** | 内置多种 AI 模型 |
    | **免费额度** | 每月 25 credits + 无限基础补全 + 每天 5 次 Cascade |
    | **需要信用卡** | 不需要 |
    | **注册** | 下载 [Windsurf IDE]( https://windsurf.com) |

    ---

    ## 二、国内平台

    ### 11. 硅基流动 SiliconFlow 国内最大方

    | 维度 | 详情 |
    |------|------|
    | **模型** | Qwen2.5-72B 、DeepSeek-V2.5 、InternLM2.5 等,涵盖语言/语音/图片/视频 |
    | **免费额度** | 注册送 14 元(约 2000 万 token );邀请好友再送 14 元; Qwen2.5-7B API 永久免费 |
    | **质量** | 72B 模型质量好,7B 日常够用 |
    | **速度** | 国内直连快 |
    | **需要信用卡** | 不需要 |

    **怎么领:**
    1. 打开 [siliconflow.cn]( https://siliconflow.cn)
    2. 手机号注册
    3. 控制台 → API Keys → 创建
    4. 接口兼容 OpenAI 格式( base_url: `https://api.siliconflow.cn/v1`)

    **适合谁:** 国内开发者首选。不用、不用信用卡、兼容 OpenAI 格式,还送 2000 万 token 。

    ---

    ### 12. 智谱 GLM 永久免费模型

    | 维度 | 详情 |
    |------|------|
    | **模型** | GLM-4-Flash (永久免费)、CogView-3-Flash (免费生图)、GLM-4V-Flash (免费图像理解) |
    | **免费额度** | GLM-4-Flash **不限量永久免费**;新注册送 18 元额度(约 100 万 token );实名再送 400 万 token |
    | **质量** | 中文理解优秀,Flash 模型速度快 |
    | **速度** | 快 |
    | **需要** | 不需要 |
    | **需要信用卡** | 不需要 |

    **怎么领:**
    1. 打开 [open.bigmodel.cn]( https://open.bigmodel.cn)
    2. 手机号注册
    3. 实名认证(多送 400 万 token )
    4. API Keys 页面创建 Key

    **适合谁:** GLM-4-Flash 永久免费不限量,光这一个模型就值得注册。中文场景质量很好。

    ---

    ### 13. 百度文心 ERNIE 三个模型全免费

    | 维度 | 详情 |
    |------|------|
    | **模型** | ERNIE-Speed-8K/128K 、ERNIE-Lite-8K 、ERNIE-Tiny (共 7 个免费服务) |
    | **免费额度** | 以上模型**全部免费,不限量** |
    | **质量** | Speed 还行,Lite/Tiny 质量一般 |
    | **速度** | 国内直连 |
    | **需要** | 不需要 |
    | **需要信用卡** | 不需要(需实认证) |

    **怎么领:**
    1. 打开 [百度智能云]( https://cloud.baidu.com/product/wenxinworkshop)
    2. 注册百度账号 + 实名认证
    3. 创建应用 → 获取 API Key 和 Secret Key

    **适合谁:** 对质量要求不高的批量任务。免费不限量,跑数据清洗、文本分类这类任务很划算。

    ---

    ### 14. DeepSeek 接近免费

    | 维度 | 详情 |
    |------|------|
    | **模型** | DeepSeek-V3.2 、DeepSeek-R1 |
    | **免费额度** | 注册送 500 万 token ;之后极便宜:缓存命中 0.2 元/百万 token |
    | **质量** | V3.2 综合能力顶级,R1 推理最强 |
    | **速度** | |
    | **需要** | 不需要 |
    | **需要信用卡** | 不需要 |

    **怎么领:**
    1. 打开 [platform.deepseek.com]( https://platform.deepseek.com)
    2. 手机号注册,500 万 token 自动到账
    3. API Keys 页面创建 Key

    **适合谁:** 需要最强推理能力( R1 )且在国内的场景。严格说不是完全免费,但 500 万 token 够用很久,之后也几乎不花钱。

    ---

    ## 三、总结对比表

    ### 完全免费平台(长期可用)

    | 平台 | 模型 | 日额度 | 速度 | 质量 | |
    |------|------|--------|------|------|------|
    | **Cerebras** | Llama 70B/Qwen 235B | 100 万 tok | 极快 | | 需要 |
    | **Groq** | Llama 70B/Scout | ~14K 次 | 极快 | | 需要 |
    | **SambaNova** | Llama 405B | 200K tok | 快 | | 需要 |
    | **Gemini** | 2.5 Pro/Flash | 100-1000 次 | 慢 | | 需要 |
    | **Mistral** | Large/Codestral | 10 亿 tok/月 | 慢(2RPM) | | 需要 |
    | **智谱** | GLM-4-Flash | **不限量** | 快 | | 不需要 |
    | **百度** | ERNIE Speed/Lite | **不限量** | 快 | | 不需要 |
    | **硅基流动** | Qwen 7B | **永久免费** | 快 | | 不需要 |

    ### 注册送额度平台

    | 平台 | 赠送额度 | 用完后价格 |
    |------|---------|-----------|
    | **Kiro** | 500 credits (含 Claude Sonnet ) | $19/月 |
    | **硅基流动** | 14 元( 2000 万 token ) | 按量付费 |
    | **DeepSeek** | 500 万 token | 极便宜(百万 token ≈ 1 元) |
    | **智谱** | 18 元 + 实名送 400 万 token | GLM-4-Flash 永久免费 |
    | **Fireworks** | $1 credits | 按量付费 |

    ---

    ## 四、领完了怎么用?

    ### 方法一:直接用平台的 API

    所有上面的平台都兼容 OpenAI SDK 格式(或有自己的 SDK ),以 Python 为例:

    ```python
    from openai import OpenAI

    # === Groq ===
    client = OpenAI(
    base_url="https://api.groq.com/openai/v1",
    api_key="你的 groq key"
    )

    # === Cerebras ===
    client = OpenAI(
    base_url="https://api.cerebras.ai/v1",
    api_key="你的 cerebras key"
    )

    # === 硅基流动 ===
    client = OpenAI(
    base_url="https://api.siliconflow.cn/v1",
    api_key="你的 siliconflow key"
    )

    # 调用方式完全一样
    respOnse= client.chat.completions.create(
    model="llama-3.3-70b", # 换成对应平台的模型名
    messages=[{"role": "user", "content": "你好"}]
    )
    ```

    ### 方法二:在 Cursor / VS Code 里用

    Cursor Settings → Models → 添加自定义模型:

    ```
    Base URL: https://api.groq.com/openai/v1
    API Key: 你的 Key
    Model: llama-3.3-70b-versatile
    ```

    ### 方法三:在 OpenClaw / Claude Code 里用

    ```bash
    # 对接任意平台
    export ANTHROPIC_BASE_URL=http://localhost:18765
    export ANTHROPIC_API_KEY=unused
    ```

    ### 方法四:多平台额度叠加

    一个平台的额度总有用完的时候。但如果你同时注册了 Groq + Cerebras + SambaNova + Gemini ,一天的免费额度加起来超过 **130 万 tokens**。

    手动切换太麻烦?可以用本地聚合工具把多个 API 合并成一个端点:

    ```
    "fast-group" = Groq → Cerebras → SambaNova → Gemini
    ```

    一个用完自动切下一个。比如 [OpenRelay]( https://github.com/romgX/openrelay) 就是做这个的,聚合 29 个 Provider ,一行命令安装:

    ```bash
    curl -L -o openrelay https://github.com/romgX/openrelay/releases/latest/download/openrelay-macos-arm64
    chmod +x openrelay && ./openrelay
    ```

    ---

    ## 五、我的推荐组合

    | 你的需求 | 推荐组合 |
    |---------|---------|
    | 日常编程(国内) | 硅基流动 + 智谱 GLM-4-Flash |
    | 日常编程(国外) | Groq + Kiro ( Claude Sonnet ) |
    | 重度编程 | Cerebras ( 100 万/天) + Mistral Codestral |
    | 复杂推理 | SambaNova 405B + DeepSeek R1 |
    | 超长文档 | Gemini 2.5 Pro ( 100 万上下文) |
    | 全都要 | 全注册一遍 → 用聚合工具合并 |
    4 条回复
    mzl980425
        1
    mzl980425  
       3 月 27 日   1
    「 Llama 3.1 405B (开源最强)」???哥们儿,你 AI 生成的吧?
    BestEicky
        2
    BestEicky  
       3 月 27 日
    ### 5. OpenRouter 模型超市

    | 维度 | 详情 |
    |------|------|
    | **模型** | 约 29 个免费模型:DeepSeek V3/R1 、Llama 系列、Qwen 系列、Gemini Flash 等 |
    | **免费额度** | 每天 50 次(充 $10 提升到 1000 次/天) |
    | **质量** | 取决于选哪个模型,DeepSeek R1 最强 |
    | **速度** | 中等,取决于路由 |
    | **需要信用卡** | 不需要 |

    **怎么领:**
    1. 打开 [openrouter.ai]( https://openrouter.ai)
    2. 注册
    3. Keys 页面创建 API Key
    4. 模型名加 `:free` 后缀即为免费模型(如 `deepseek/deepseek-r1:free`)

    **适合谁:** 想在一个平台试遍各种模型的人。不用分别注册,一个 Key 切所有。


    这个充 10 刀提升到 1000 次,没看到有说明呢
    oed
        3
    oed  
       3 月 27 日   1
    其他平台我不知道,Gemini 3.1 Flash Lite 免费层级 现在一天 15 次。

    我有理由怀疑帖子内容是 ai 生成的,并且缺乏时效性。

    “花了两周全部注册了一遍”是谎言。

    目的是推广自己的项目。虽然放在 github 上,核心代码闭源。
    仓库声称所有 token 仅在本地内存中使用,请求直连 AI Provider ,没有中间服务器。这一点无法独立验证,使用时需自行判断信任程度。


    @BestEicky
    rxc420902911
        4
    rxc420902911  
    OP
    PRO
       3 月 27 日
    以上连接各厂商,一个 gmail 都能搞定!没有问题的,但所有免费的配额随时都会变化 ,所以大家在申请时以实际为准!
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     1109 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 50ms UTC 17:35 PVG 01:35 LAX 10:35 JFK 13:35
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86