Claude 20 刀/月,GPT 也 20 刀/月,Cursor Pro 又要 20 刀。一个月光 AI 订阅就小一千。
但其实,有大量平台提供**完全免费**的 AI 模型额度,只是你不知道在哪领。
我花了两周全部注册了一遍,整理出这份攻略。**分国内和国外**,每个平台都写清楚:有什么模型、给多少量、质量怎么样、要不要、怎么领。
收藏这一篇就够了。
---
## 一、国外平台(需要)
### 1. Groq — 速度之王
| 维度 | 详情 |
|------|------|
| **模型** | Llama 3.3 70B 、Llama 4 Scout 、Qwen3 32B 、Gemma 、Mixtral |
| **免费额度** | 每天约 14,400 次请求(按分钟重置,不是一次性的) |
| **质量** | Llama 70B 级别,日常编程和对话足够,复杂推理稍弱 |
| **速度** | ⭐⭐⭐⭐⭐ 750 tokens/秒,体感秒回 |
| **需要信用卡** | ❌ 不需要 |
**怎么领:**
1. 打开 [
console.groq.com](
https://console.groq.com)
2. 用 Google 或 GitHub 账号注册
3. 左侧菜单 → API Keys → Create API Key
4. 复制 Key ,完事
**适合谁:** 需要快速响应的场景,比如 IDE 补全、实时对话。日常编程用它最爽。
---
### 2. Cerebras — 额度之王
| 维度 | 详情 |
|------|------|
| **模型** | Llama 4 Scout 、Llama 3.3 70B 、Qwen3 32B 、Qwen3 235B |
| **免费额度** | 每天 100 万 tokens |
| **质量** | ⭐⭐⭐⭐ 70B 级别,Qwen3 235B 质量更高 |
| **速度** | ⭐⭐⭐⭐⭐ 约 2000 tokens/秒,全网最快 |
| **需要信用卡** | ❌ 不需要 |
| **限制** | 单次上下文最长 8,192 tokens |
**怎么领:**
1. 打开 [
cloud.cerebras.ai](
https://cloud.cerebras.ai)
2. 注册账号(邮箱即可)
3. Dashboard → API Keys → Generate
4. 复制保存
**适合谁:** 大量代码生成、批量翻译、长文写作。一天 100 万 token ,正常人根本用不完。
---
### 3. SambaNova — 质量之王
| 维度 | 详情 |
|------|------|
| **模型** | Llama 3.1 405B (开源最强)、70B 、8B |
| **免费额度** | 每天 200K tokens ; 405B 模型限 10 RPM |
| **质量** | ⭐⭐⭐⭐⭐ 405B 是当前最强开源模型,接近 GPT-4 水平 |
| **速度** | ⭐⭐⭐⭐ 快 |
| **需要信用卡** | ❌ 不需要(不绑卡就是 Free Tier ) |
**怎么领:**
1. 打开 [
cloud.sambanova.ai](
https://cloud.sambanova.ai)
2. 注册
3. 进入面板拿 API Key
4. 选模型时选 `Meta-Llama-3.1-405B-Instruct`
**适合谁:** 需要最强推理能力的复杂任务。405B 免费给你用,这家是最大方的。
---
### 4. Google Gemini — 上下文之王
| 维度 | 详情 |
|------|------|
| **模型** | Gemini 2.5 Pro 、Flash 、Flash-Lite |
| **免费额度** | Pro: 100 次/天; Flash: 250 次/天; Flash-Lite: 1000 次/天 |
| **质量** | ⭐⭐⭐⭐⭐ Pro 接近最强闭源模型水平 |
| **速度** | ⭐⭐⭐ 偏慢 |
| **需要信用卡** | ❌ 不需要 |
| **杀手锏** | 100 万 token 上下文窗口 |
**怎么领:**
1. 打开 [
ai.google.dev](
https://ai.google.dev)
2. 用 Google 账号登录
3. Get API Key → Create API Key
4. 选一个 Google Cloud 项目(没有会自动创建)
**适合谁:** 分析超长文档、整本书、大型代码库。100 万上下文,其他平台都做不到。
---
### 5. OpenRouter — 模型超市
| 维度 | 详情 |
|------|------|
| **模型** | 约 29 个免费模型:DeepSeek V3/R1 、Llama 系列、Qwen 系列、Gemini Flash 等 |
| **免费额度** | 每天 50 次(充 $10 提升到 1000 次/天) |
| **质量** | 取决于选哪个模型,DeepSeek R1 最强 |
| **速度** | ⭐⭐⭐ 中等,取决于路由 |
| **需要信用卡** | ❌ 不需要 |
**怎么领:**
1. 打开 [
openrouter.ai](
https://openrouter.ai)
2. 注册
3. Keys 页面创建 API Key
4. 模型名加 `:free` 后缀即为免费模型(如 `deepseek/deepseek-r1:free`)
**适合谁:** 想在一个平台试遍各种模型的人。不用分别注册,一个 Key 切所有。
---
### 6. Mistral — 代码之王
| 维度 | 详情 |
|------|------|
| **模型** | Mistral Large 、Small 3.1 、Codestral (代码专用)、Pixtral |
| **免费额度** | 每月 10 亿 tokens ( Experiment 层),但限速 2 RPM |
| **质量** | ⭐⭐⭐⭐ Codestral 是最强代码模型之一 |
| **速度** | ⭐⭐⭐ 受 2 RPM 限制,实际体感偏慢 |
| **需要信用卡** | ❌ 不需要 |
**怎么领:**
1. 打开 [
console.mistral.ai](
https://console.mistral.ai)
2. 注册,选 Experiment 计划(免费)
3. API Keys 页面创建 Key
**适合谁:** 写代码为主。Codestral 专门为代码优化,补全和生成质量很高。每月 10 亿 token 的量,慢点也够用。
---
### 7. Cohere — 企业级 RAG
| 维度 | 详情 |
|------|------|
| **模型** | Command R+、Embed 、Rerank |
| **免费额度** | 每月 1,000 次 API 调用 |
| **需要信用卡** | ❌ 不需要 |
| **注册** | [
dashboard.cohere.com](
https://dashboard.cohere.com) |
**适合谁:** 做 RAG (检索增强生成)、文档问答系统。Rerank 模型是这个领域最强的。
---
### 8. Fireworks AI
| 维度 | 详情 |
|------|------|
| **模型** | Qwen3 8B 、DeepSeek 等开源模型 |
| **免费额度** | 注册送 $1 credits + Developer Tier 免费月度配额 |
| **需要信用卡** | ❌ 不需要 |
| **注册** | [
fireworks.ai](
https://fireworks.ai) |
---
### 9. Kiro (亚马逊出品)
| 维度 | 详情 |
|------|------|
| **模型** | Claude Sonnet ( Anthropic 提供) |
| **免费额度** | 每月 50 credits + 新用户送 500 credits ( 30 天有效) |
| **质量** | ⭐⭐⭐⭐⭐ Claude Sonnet 质量,免费用到就是赚到 |
| **需要信用卡** | ❌ 不需要 |
**怎么领:**
1. 下载 [Kiro IDE](
https://kiro.dev)
2. 注册 AWS Builder ID (免费)
3. 打开就能用,500 credits 到账
**适合谁:** Claude 重度用户。别的平台免费给你 Llama ,这家免费给你 Claude Sonnet ,质量差距不是一个级别。
---
### 10. Windsurf
| 维度 | 详情 |
|------|------|
| **模型** | 内置多种 AI 模型 |
| **免费额度** | 每月 25 credits + 无限基础补全 + 每天 5 次 Cascade |
| **需要信用卡** | ❌ 不需要 |
| **注册** | 下载 [Windsurf IDE](
https://windsurf.com) |
---
## 二、国内平台
### 11. 硅基流动 SiliconFlow — 国内最大方
| 维度 | 详情 |
|------|------|
| **模型** | Qwen2.5-72B 、DeepSeek-V2.5 、InternLM2.5 等,涵盖语言/语音/图片/视频 |
| **免费额度** | 注册送 14 元(约 2000 万 token );邀请好友再送 14 元; Qwen2.5-7B API 永久免费 |
| **质量** | ⭐⭐⭐⭐ 72B 模型质量好,7B 日常够用 |
| **速度** | ⭐⭐⭐⭐ 国内直连快 |
| **需要信用卡** | ❌ 不需要 |
**怎么领:**
1. 打开 [
siliconflow.cn](
https://siliconflow.cn)
2. 手机号注册
3. 控制台 → API Keys → 创建
4. 接口兼容 OpenAI 格式( base_url: `
https://api.siliconflow.cn/v1`)
**适合谁:** 国内开发者首选。不用、不用信用卡、兼容 OpenAI 格式,还送 2000 万 token 。
---
### 12. 智谱 GLM — 永久免费模型
| 维度 | 详情 |
|------|------|
| **模型** | GLM-4-Flash (永久免费)、CogView-3-Flash (免费生图)、GLM-4V-Flash (免费图像理解) |
| **免费额度** | GLM-4-Flash **不限量永久免费**;新注册送 18 元额度(约 100 万 token );实名再送 400 万 token |
| **质量** | ⭐⭐⭐⭐ 中文理解优秀,Flash 模型速度快 |
| **速度** | ⭐⭐⭐⭐ 快 |
| **需要** | ❌ 不需要 |
| **需要信用卡** | ❌ 不需要 |
**怎么领:**
1. 打开 [
open.bigmodel.cn](
https://open.bigmodel.cn)
2. 手机号注册
3. 实名认证(多送 400 万 token )
4. API Keys 页面创建 Key
**适合谁:** GLM-4-Flash 永久免费不限量,光这一个模型就值得注册。中文场景质量很好。
---
### 13. 百度文心 ERNIE — 三个模型全免费
| 维度 | 详情 |
|------|------|
| **模型** | ERNIE-Speed-8K/128K 、ERNIE-Lite-8K 、ERNIE-Tiny (共 7 个免费服务) |
| **免费额度** | 以上模型**全部免费,不限量** |
| **质量** | ⭐⭐⭐ Speed 还行,Lite/Tiny 质量一般 |
| **速度** | ⭐⭐⭐⭐ 国内直连 |
| **需要** | ❌ 不需要 |
| **需要信用卡** | ❌ 不需要(需实名认证) |
**怎么领:**
1. 打开 [百度智能云](
https://cloud.baidu.com/product/wenxinworkshop)
2. 注册百度账号 + 实名认证
3. 创建应用 → 获取 API Key 和 Secret Key
**适合谁:** 对质量要求不高的批量任务。免费不限量,跑数据清洗、文本分类这类任务很划算。
---
### 14. DeepSeek — 接近免费
| 维度 | 详情 |
|------|------|
| **模型** | DeepSeek-V3.2 、DeepSeek-R1 |
| **免费额度** | 注册送 500 万 token ;之后极便宜:缓存命中 0.2 元/百万 token |
| **质量** | ⭐⭐⭐⭐⭐ V3.2 综合能力顶级,R1 推理最强 |
| **速度** | ⭐⭐⭐⭐ |
| **需要** | ❌ 不需要 |
| **需要信用卡** | ❌ 不需要 |
**怎么领:**
1. 打开 [
platform.deepseek.com](
https://platform.deepseek.com)
2. 手机号注册,500 万 token 自动到账
3. API Keys 页面创建 Key
**适合谁:** 需要最强推理能力( R1 )且在国内的场景。严格说不是完全免费,但 500 万 token 够用很久,之后也几乎不花钱。
---
## 三、总结对比表
### 完全免费平台(长期可用)
| 平台 | 模型 | 日额度 | 速度 | 质量 | |
|------|------|--------|------|------|------|
| **Cerebras** | Llama 70B/Qwen 235B | 100 万 tok | ⚡极快 | ⭐⭐⭐⭐ | 需要 |
| **Groq** | Llama 70B/Scout | ~14K 次 | ⚡极快 | ⭐⭐⭐⭐ | 需要 |
| **SambaNova** | Llama 405B | 200K tok | 快 | ⭐⭐⭐⭐⭐ | 需要 |
| **Gemini** | 2.5 Pro/Flash | 100-1000 次 | 慢 | ⭐⭐⭐⭐⭐ | 需要 |
| **Mistral** | Large/Codestral | 10 亿 tok/月 | 慢(2RPM) | ⭐⭐⭐⭐ | 需要 |
| **智谱** | GLM-4-Flash | **不限量** | 快 | ⭐⭐⭐⭐ | 不需要 |
| **百度** | ERNIE Speed/Lite | **不限量** | 快 | ⭐⭐⭐ | 不需要 |
| **硅基流动** | Qwen 7B | **永久免费** | 快 | ⭐⭐⭐ | 不需要 |
### 注册送额度平台
| 平台 | 赠送额度 | 用完后价格 |
|------|---------|-----------|
| **Kiro** | 500 credits (含 Claude Sonnet ) | $19/月 |
| **硅基流动** | 14 元( 2000 万 token ) | 按量付费 |
| **DeepSeek** | 500 万 token | 极便宜(百万 token ≈ 1 元) |
| **智谱** | 18 元 + 实名送 400 万 token | GLM-4-Flash 永久免费 |
| **Fireworks** | $1 credits | 按量付费 |
---
## 四、领完了怎么用?
### 方法一:直接用平台的 API
所有上面的平台都兼容 OpenAI SDK 格式(或有自己的 SDK ),以 Python 为例:
```python
from openai import OpenAI
# === Groq ===
client = OpenAI(
base_url="
https://api.groq.com/openai/v1",
api_key="你的 groq key"
)
# === Cerebras ===
client = OpenAI(
base_url="
https://api.cerebras.ai/v1",
api_key="你的 cerebras key"
)
# === 硅基流动 ===
client = OpenAI(
base_url="
https://api.siliconflow.cn/v1",
api_key="你的 siliconflow key"
)
# 调用方式完全一样
response = client.chat.completions.create(
model="llama-3.3-70b", # 换成对应平台的模型名
messages=[{"role": "user", "content": "你好"}]
)
```
### 方法二:在 Cursor / VS Code 里用
Cursor Settings → Models → 添加自定义模型:
```
Base URL:
https://api.groq.com/openai/v1API Key: 你的 Key
Model: llama-3.3-70b-versatile
```
### 方法三:在 OpenClaw / Claude Code 里用
```bash
# 对接任意平台
export ANTHROPIC_BASE_URL=http://localhost:18765
export ANTHROPIC_API_KEY=unused
```
### 方法四:多平台额度叠加
一个平台的额度总有用完的时候。但如果你同时注册了 Groq + Cerebras + SambaNova + Gemini ,一天的免费额度加起来超过 **130 万 tokens**。
手动切换太麻烦?可以用本地聚合工具把多个 API 合并成一个端点:
```
"fast-group" = Groq → Cerebras → SambaNova → Gemini
```
一个用完自动切下一个。比如 [OpenRelay](
https://github.com/romgX/openrelay) 就是做这个的,聚合 29 个 Provider ,一行命令安装:
```bash
curl -L -o openrelay
https://github.com/romgX/openrelay/releases/latest/download/openrelay-macos-arm64chmod +x openrelay && ./openrelay
```
---
## 五、我的推荐组合
| 你的需求 | 推荐组合 |
|---------|---------|
| 日常编程(国内) | 硅基流动 + 智谱 GLM-4-Flash |
| 日常编程(国外) | Groq + Kiro ( Claude Sonnet ) |
| 重度编程 | Cerebras ( 100 万/天) + Mistral Codestral |
| 复杂推理 | SambaNova 405B + DeepSeek R1 |
| 超长文档 | Gemini 2.5 Pro ( 100 万上下文) |
| 全都要 | 全注册一遍 → 用聚合工具合并 |