V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
rxc420902911
V2EX  ›  程序员

# 2026 免费 AI 额度全攻略: 15 个平台,手把手教你领

  •  1
     
  •   rxc420902911 ·
    PRO
    · 4 小时 59 分钟前 · 161 次点击
    Claude 20 刀/月,GPT 也 20 刀/月,Cursor Pro 又要 20 刀。一个月光 AI 订阅就小一千。

    但其实,有大量平台提供**完全免费**的 AI 模型额度,只是你不知道在哪领。

    我花了两周全部注册了一遍,整理出这份攻略。**分国内和国外**,每个平台都写清楚:有什么模型、给多少量、质量怎么样、要不要、怎么领。

    收藏这一篇就够了。

    ---

    ## 一、国外平台(需要)

    ### 1. Groq — 速度之王

    | 维度 | 详情 |
    |------|------|
    | **模型** | Llama 3.3 70B 、Llama 4 Scout 、Qwen3 32B 、Gemma 、Mixtral |
    | **免费额度** | 每天约 14,400 次请求(按分钟重置,不是一次性的) |
    | **质量** | Llama 70B 级别,日常编程和对话足够,复杂推理稍弱 |
    | **速度** | ⭐⭐⭐⭐⭐ 750 tokens/秒,体感秒回 |
    | **需要信用卡** | ❌ 不需要 |

    **怎么领:**
    1. 打开 [console.groq.com]( https://console.groq.com)
    2. 用 Google 或 GitHub 账号注册
    3. 左侧菜单 → API Keys → Create API Key
    4. 复制 Key ,完事

    **适合谁:** 需要快速响应的场景,比如 IDE 补全、实时对话。日常编程用它最爽。

    ---

    ### 2. Cerebras — 额度之王

    | 维度 | 详情 |
    |------|------|
    | **模型** | Llama 4 Scout 、Llama 3.3 70B 、Qwen3 32B 、Qwen3 235B |
    | **免费额度** | 每天 100 万 tokens |
    | **质量** | ⭐⭐⭐⭐ 70B 级别,Qwen3 235B 质量更高 |
    | **速度** | ⭐⭐⭐⭐⭐ 约 2000 tokens/秒,全网最快 |
    | **需要信用卡** | ❌ 不需要 |
    | **限制** | 单次上下文最长 8,192 tokens |

    **怎么领:**
    1. 打开 [cloud.cerebras.ai]( https://cloud.cerebras.ai)
    2. 注册账号(邮箱即可)
    3. Dashboard → API Keys → Generate
    4. 复制保存

    **适合谁:** 大量代码生成、批量翻译、长文写作。一天 100 万 token ,正常人根本用不完。

    ---

    ### 3. SambaNova — 质量之王

    | 维度 | 详情 |
    |------|------|
    | **模型** | Llama 3.1 405B (开源最强)、70B 、8B |
    | **免费额度** | 每天 200K tokens ; 405B 模型限 10 RPM |
    | **质量** | ⭐⭐⭐⭐⭐ 405B 是当前最强开源模型,接近 GPT-4 水平 |
    | **速度** | ⭐⭐⭐⭐ 快 |
    | **需要信用卡** | ❌ 不需要(不绑卡就是 Free Tier ) |

    **怎么领:**
    1. 打开 [cloud.sambanova.ai]( https://cloud.sambanova.ai)
    2. 注册
    3. 进入面板拿 API Key
    4. 选模型时选 `Meta-Llama-3.1-405B-Instruct`

    **适合谁:** 需要最强推理能力的复杂任务。405B 免费给你用,这家是最大方的。

    ---

    ### 4. Google Gemini — 上下文之王

    | 维度 | 详情 |
    |------|------|
    | **模型** | Gemini 2.5 Pro 、Flash 、Flash-Lite |
    | **免费额度** | Pro: 100 次/天; Flash: 250 次/天; Flash-Lite: 1000 次/天 |
    | **质量** | ⭐⭐⭐⭐⭐ Pro 接近最强闭源模型水平 |
    | **速度** | ⭐⭐⭐ 偏慢 |
    | **需要信用卡** | ❌ 不需要 |
    | **杀手锏** | 100 万 token 上下文窗口 |

    **怎么领:**
    1. 打开 [ai.google.dev]( https://ai.google.dev)
    2. 用 Google 账号登录
    3. Get API Key → Create API Key
    4. 选一个 Google Cloud 项目(没有会自动创建)

    **适合谁:** 分析超长文档、整本书、大型代码库。100 万上下文,其他平台都做不到。

    ---

    ### 5. OpenRouter — 模型超市

    | 维度 | 详情 |
    |------|------|
    | **模型** | 约 29 个免费模型:DeepSeek V3/R1 、Llama 系列、Qwen 系列、Gemini Flash 等 |
    | **免费额度** | 每天 50 次(充 $10 提升到 1000 次/天) |
    | **质量** | 取决于选哪个模型,DeepSeek R1 最强 |
    | **速度** | ⭐⭐⭐ 中等,取决于路由 |
    | **需要信用卡** | ❌ 不需要 |

    **怎么领:**
    1. 打开 [openrouter.ai]( https://openrouter.ai)
    2. 注册
    3. Keys 页面创建 API Key
    4. 模型名加 `:free` 后缀即为免费模型(如 `deepseek/deepseek-r1:free`)

    **适合谁:** 想在一个平台试遍各种模型的人。不用分别注册,一个 Key 切所有。

    ---

    ### 6. Mistral — 代码之王

    | 维度 | 详情 |
    |------|------|
    | **模型** | Mistral Large 、Small 3.1 、Codestral (代码专用)、Pixtral |
    | **免费额度** | 每月 10 亿 tokens ( Experiment 层),但限速 2 RPM |
    | **质量** | ⭐⭐⭐⭐ Codestral 是最强代码模型之一 |
    | **速度** | ⭐⭐⭐ 受 2 RPM 限制,实际体感偏慢 |
    | **需要信用卡** | ❌ 不需要 |

    **怎么领:**
    1. 打开 [console.mistral.ai]( https://console.mistral.ai)
    2. 注册,选 Experiment 计划(免费)
    3. API Keys 页面创建 Key

    **适合谁:** 写代码为主。Codestral 专门为代码优化,补全和生成质量很高。每月 10 亿 token 的量,慢点也够用。

    ---

    ### 7. Cohere — 企业级 RAG

    | 维度 | 详情 |
    |------|------|
    | **模型** | Command R+、Embed 、Rerank |
    | **免费额度** | 每月 1,000 次 API 调用 |
    | **需要信用卡** | ❌ 不需要 |
    | **注册** | [dashboard.cohere.com]( https://dashboard.cohere.com) |

    **适合谁:** 做 RAG (检索增强生成)、文档问答系统。Rerank 模型是这个领域最强的。

    ---

    ### 8. Fireworks AI

    | 维度 | 详情 |
    |------|------|
    | **模型** | Qwen3 8B 、DeepSeek 等开源模型 |
    | **免费额度** | 注册送 $1 credits + Developer Tier 免费月度配额 |
    | **需要信用卡** | ❌ 不需要 |
    | **注册** | [fireworks.ai]( https://fireworks.ai) |

    ---

    ### 9. Kiro (亚马逊出品)

    | 维度 | 详情 |
    |------|------|
    | **模型** | Claude Sonnet ( Anthropic 提供) |
    | **免费额度** | 每月 50 credits + 新用户送 500 credits ( 30 天有效) |
    | **质量** | ⭐⭐⭐⭐⭐ Claude Sonnet 质量,免费用到就是赚到 |

    | **需要信用卡** | ❌ 不需要 |

    **怎么领:**
    1. 下载 [Kiro IDE]( https://kiro.dev)
    2. 注册 AWS Builder ID (免费)
    3. 打开就能用,500 credits 到账

    **适合谁:** Claude 重度用户。别的平台免费给你 Llama ,这家免费给你 Claude Sonnet ,质量差距不是一个级别。

    ---

    ### 10. Windsurf

    | 维度 | 详情 |
    |------|------|
    | **模型** | 内置多种 AI 模型 |
    | **免费额度** | 每月 25 credits + 无限基础补全 + 每天 5 次 Cascade |
    | **需要信用卡** | ❌ 不需要 |
    | **注册** | 下载 [Windsurf IDE]( https://windsurf.com) |

    ---

    ## 二、国内平台

    ### 11. 硅基流动 SiliconFlow — 国内最大方

    | 维度 | 详情 |
    |------|------|
    | **模型** | Qwen2.5-72B 、DeepSeek-V2.5 、InternLM2.5 等,涵盖语言/语音/图片/视频 |
    | **免费额度** | 注册送 14 元(约 2000 万 token );邀请好友再送 14 元; Qwen2.5-7B API 永久免费 |
    | **质量** | ⭐⭐⭐⭐ 72B 模型质量好,7B 日常够用 |
    | **速度** | ⭐⭐⭐⭐ 国内直连快 |
    | **需要信用卡** | ❌ 不需要 |

    **怎么领:**
    1. 打开 [siliconflow.cn]( https://siliconflow.cn)
    2. 手机号注册
    3. 控制台 → API Keys → 创建
    4. 接口兼容 OpenAI 格式( base_url: `https://api.siliconflow.cn/v1`)

    **适合谁:** 国内开发者首选。不用、不用信用卡、兼容 OpenAI 格式,还送 2000 万 token 。

    ---

    ### 12. 智谱 GLM — 永久免费模型

    | 维度 | 详情 |
    |------|------|
    | **模型** | GLM-4-Flash (永久免费)、CogView-3-Flash (免费生图)、GLM-4V-Flash (免费图像理解) |
    | **免费额度** | GLM-4-Flash **不限量永久免费**;新注册送 18 元额度(约 100 万 token );实名再送 400 万 token |
    | **质量** | ⭐⭐⭐⭐ 中文理解优秀,Flash 模型速度快 |
    | **速度** | ⭐⭐⭐⭐ 快 |
    | **需要** | ❌ 不需要 |
    | **需要信用卡** | ❌ 不需要 |

    **怎么领:**
    1. 打开 [open.bigmodel.cn]( https://open.bigmodel.cn)
    2. 手机号注册
    3. 实名认证(多送 400 万 token )
    4. API Keys 页面创建 Key

    **适合谁:** GLM-4-Flash 永久免费不限量,光这一个模型就值得注册。中文场景质量很好。

    ---

    ### 13. 百度文心 ERNIE — 三个模型全免费

    | 维度 | 详情 |
    |------|------|
    | **模型** | ERNIE-Speed-8K/128K 、ERNIE-Lite-8K 、ERNIE-Tiny (共 7 个免费服务) |
    | **免费额度** | 以上模型**全部免费,不限量** |
    | **质量** | ⭐⭐⭐ Speed 还行,Lite/Tiny 质量一般 |
    | **速度** | ⭐⭐⭐⭐ 国内直连 |
    | **需要** | ❌ 不需要 |
    | **需要信用卡** | ❌ 不需要(需实名认证) |

    **怎么领:**
    1. 打开 [百度智能云]( https://cloud.baidu.com/product/wenxinworkshop)
    2. 注册百度账号 + 实名认证
    3. 创建应用 → 获取 API Key 和 Secret Key

    **适合谁:** 对质量要求不高的批量任务。免费不限量,跑数据清洗、文本分类这类任务很划算。

    ---

    ### 14. DeepSeek — 接近免费

    | 维度 | 详情 |
    |------|------|
    | **模型** | DeepSeek-V3.2 、DeepSeek-R1 |
    | **免费额度** | 注册送 500 万 token ;之后极便宜:缓存命中 0.2 元/百万 token |
    | **质量** | ⭐⭐⭐⭐⭐ V3.2 综合能力顶级,R1 推理最强 |
    | **速度** | ⭐⭐⭐⭐ |
    | **需要** | ❌ 不需要 |
    | **需要信用卡** | ❌ 不需要 |

    **怎么领:**
    1. 打开 [platform.deepseek.com]( https://platform.deepseek.com)
    2. 手机号注册,500 万 token 自动到账
    3. API Keys 页面创建 Key

    **适合谁:** 需要最强推理能力( R1 )且在国内的场景。严格说不是完全免费,但 500 万 token 够用很久,之后也几乎不花钱。

    ---

    ## 三、总结对比表

    ### 完全免费平台(长期可用)

    | 平台 | 模型 | 日额度 | 速度 | 质量 | |
    |------|------|--------|------|------|------|
    | **Cerebras** | Llama 70B/Qwen 235B | 100 万 tok | ⚡极快 | ⭐⭐⭐⭐ | 需要 |
    | **Groq** | Llama 70B/Scout | ~14K 次 | ⚡极快 | ⭐⭐⭐⭐ | 需要 |
    | **SambaNova** | Llama 405B | 200K tok | 快 | ⭐⭐⭐⭐⭐ | 需要 |
    | **Gemini** | 2.5 Pro/Flash | 100-1000 次 | 慢 | ⭐⭐⭐⭐⭐ | 需要 |
    | **Mistral** | Large/Codestral | 10 亿 tok/月 | 慢(2RPM) | ⭐⭐⭐⭐ | 需要 |
    | **智谱** | GLM-4-Flash | **不限量** | 快 | ⭐⭐⭐⭐ | 不需要 |
    | **百度** | ERNIE Speed/Lite | **不限量** | 快 | ⭐⭐⭐ | 不需要 |
    | **硅基流动** | Qwen 7B | **永久免费** | 快 | ⭐⭐⭐ | 不需要 |

    ### 注册送额度平台

    | 平台 | 赠送额度 | 用完后价格 |
    |------|---------|-----------|
    | **Kiro** | 500 credits (含 Claude Sonnet ) | $19/月 |
    | **硅基流动** | 14 元( 2000 万 token ) | 按量付费 |
    | **DeepSeek** | 500 万 token | 极便宜(百万 token ≈ 1 元) |
    | **智谱** | 18 元 + 实名送 400 万 token | GLM-4-Flash 永久免费 |
    | **Fireworks** | $1 credits | 按量付费 |

    ---

    ## 四、领完了怎么用?

    ### 方法一:直接用平台的 API

    所有上面的平台都兼容 OpenAI SDK 格式(或有自己的 SDK ),以 Python 为例:

    ```python
    from openai import OpenAI

    # === Groq ===
    client = OpenAI(
    base_url="https://api.groq.com/openai/v1",
    api_key="你的 groq key"
    )

    # === Cerebras ===
    client = OpenAI(
    base_url="https://api.cerebras.ai/v1",
    api_key="你的 cerebras key"
    )

    # === 硅基流动 ===
    client = OpenAI(
    base_url="https://api.siliconflow.cn/v1",
    api_key="你的 siliconflow key"
    )

    # 调用方式完全一样
    response = client.chat.completions.create(
    model="llama-3.3-70b", # 换成对应平台的模型名
    messages=[{"role": "user", "content": "你好"}]
    )
    ```

    ### 方法二:在 Cursor / VS Code 里用

    Cursor Settings → Models → 添加自定义模型:

    ```
    Base URL: https://api.groq.com/openai/v1
    API Key: 你的 Key
    Model: llama-3.3-70b-versatile
    ```

    ### 方法三:在 OpenClaw / Claude Code 里用

    ```bash
    # 对接任意平台
    export ANTHROPIC_BASE_URL=http://localhost:18765
    export ANTHROPIC_API_KEY=unused
    ```

    ### 方法四:多平台额度叠加

    一个平台的额度总有用完的时候。但如果你同时注册了 Groq + Cerebras + SambaNova + Gemini ,一天的免费额度加起来超过 **130 万 tokens**。

    手动切换太麻烦?可以用本地聚合工具把多个 API 合并成一个端点:

    ```
    "fast-group" = Groq → Cerebras → SambaNova → Gemini
    ```

    一个用完自动切下一个。比如 [OpenRelay]( https://github.com/romgX/openrelay) 就是做这个的,聚合 29 个 Provider ,一行命令安装:

    ```bash
    curl -L -o openrelay https://github.com/romgX/openrelay/releases/latest/download/openrelay-macos-arm64
    chmod +x openrelay && ./openrelay
    ```

    ---

    ## 五、我的推荐组合

    | 你的需求 | 推荐组合 |
    |---------|---------|
    | 日常编程(国内) | 硅基流动 + 智谱 GLM-4-Flash |
    | 日常编程(国外) | Groq + Kiro ( Claude Sonnet ) |
    | 重度编程 | Cerebras ( 100 万/天) + Mistral Codestral |
    | 复杂推理 | SambaNova 405B + DeepSeek R1 |
    | 超长文档 | Gemini 2.5 Pro ( 100 万上下文) |
    | 全都要 | 全注册一遍 → 用聚合工具合并 |
    目前尚无回复
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   995 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 832ms · UTC 19:29 · PVG 03:29 · LAX 12:29 · JFK 15:29
    ♥ Do have faith in what you're doing.