Claude Opus 4.6 、GPT-5.4 、Gemini 2.5 Pro——这些顶级模型走 API 动辄几十美元。但如果我告诉你,不花一分钱 API 费用,就能在你自己的项目里随便调用呢?
在开始之前,先看一张表。以下所有模型都可以零成本获得,不需要花一分钱 API 费用:
| 工具 | 免费顶级模型 | 怎么拿 | 成本 |
|---|---|---|---|
| Codex | GPT-5.4 、GPT-5.3 、GPT-5.2 | 安装 Codex 即可 | 免费 |
| Kiro | Claude Sonnet 4.5 | kiro.dev 注册 | 免费 |
| Gemini CLI | Gemini 2.5 Pro ( 100 万上下文) | Google 账号登录 | 免费 |
| Antigravity | Gemini 3 Pro | 安装 Antigravity | 免费 |
| Groq | Llama 3.3 70B 、Kimi K2 | 注册拿 API Key | 免费 14,400 次/天 |
| Cerebras | Qwen 235B | 注册拿 API Key | 免费 100 万 token/天 |
| SambaNova | DeepSeek V3.2 、DeepSeek R1 | 注册拿 API Key | 免费 200K token/天 |
| HuggingFace | DeepSeek R1 、DeepSeek V3 | 注册即用 | 免费 |
| OpenRouter | 27 个免费模型 | 注册即用 | 免费 |
如果你还有 Claude Code 订阅($20/月,很多开发者已经有了):
| 工具 | 额外解锁 | 说明 |
|---|---|---|
| Claude Code | Opus 4.6 、Sonnet 4.6 | 订阅内无限 Sonnet |
| VS Code Copilot | Opus 4.6 、GPT-5.4 | $10/月或学生免费 |
把这些加在一起:GPT-5.4 + Claude Opus 4.6 + Claude Sonnet 4.5 + Gemini 2.5 Pro + DeepSeek R1 + Llama 70B,全部免费或用你已有的订阅。
问题是:这些配额分散在十几个工具里,每个只能在自己的工具内使用。
OpenRelay 做的事情就一件:把它们全部统一成一个 API 端点(http://localhost:18765),让你在任何工具、任何项目里直接调用。
它跑在你自己的电脑上,请求直连 AI 后端,不经过任何第三方服务器。
去 GitHub 下载对应系统的二进制文件,不需要 Node.js:
👉 https://github.com/romgX/openrelay/releases
Windows:
# 下载 openrelay-windows-x64.exe ,双击运行
# 或者命令行:
.\openrelay-windows-x64.exe
macOS ( Intel / Apple Silicon 通用):
chmod +x openrelay-macos
xattr -d com.apple.quarantine openrelay-macos # 解除 macOS 安全限制
./openrelay-macos
Linux:
chmod +x openrelay-linux-x64
./openrelay-linux-x64
启动后打开浏览器访问 http://localhost:18765,Web 面板会显示所有已发现的 Provider 。
OpenRelay 的 Web 面板有 4 个核心标签页:
左侧边栏显示所有 AI Provider ,绿灯 = 已连接,灰灯 = 未连接。
Provider 分两类:
IDE Provider (自动发现,零配置白嫖):
装了对应工具就自动接入,不用填 Key ,不用做任何事。
| Provider | 白嫖到的模型 | 获取成本 |
|---|---|---|
| Codex | GPT-5.4, GPT-5.3, GPT-5.2 ( 7 个模型) | 装 Codex 就行,完全免费 |
| Kiro | Claude Sonnet 4.5, DeepSeek 3.2, Qwen3 等 8 个 | 注册就行,完全免费 |
| Antigravity | Gemini 3 Pro | 装就行,完全免费 |
| Gemini CLI | Gemini 2.5 Pro( 100 万上下文) | Google 账号登录,免费 |
| OpenCode | GPT-5 Nano, Gemini 3, MiniMax | 装就行,免费 |
| Claude Code | Opus 4.6, Sonnet 4.6 ( 5 个模型) | $20/月订阅(很多人已有) |
| VS Code Copilot | Opus 4.6, GPT-5.4( 15 个模型) | $10/月或学生免费 |
| Windsurf | Kimi K2.5, SWE-1.6 | Windsurf 订阅 |
重点:Codex + Kiro + Gemini CLI 三个全免费的工具加起来,你就已经有了 GPT-5.4 + Claude Sonnet 4.5 + Gemini 2.5 Pro 。 一分钱不花,全是顶级模型。
API Provider (注册拿 Key ,全免费):
这些去官网注册一个 API Key 就能用,免费额度大到日常根本用不完。
| Provider | 白嫖到的模型 | 免费额度 | 速度 |
|---|---|---|---|
| Groq | Llama 3.3 70B, Kimi K2 | 14,400 次/天 | 最快之一 ~800 t/s |
| Cerebras | Qwen 235B, Llama 70B | 100 万 token/天 | 极快 ~2000 t/s |
| SambaNova | DeepSeek V3.2, R1, Llama 405B | 200K token/天 | 快 |
| HuggingFace | DeepSeek R1, V3, 100+ 模型 | 免费推理 | 中等 |
| OpenRouter | 27 个 :free 模型 | 各模型独立额度 | 看模型 |
| Cloudflare | Llama 70B, Qwen 32B | Workers AI 免费 | 中等 |
| DashScope | DeepSeek V3.2, Qwen3 全系列 | 注册送额度 219 个模型 | 快 |
注意 Groq 的 14,400 次/天——这意味着你每分钟可以调 10 次,全天不间断写代码都用不完。
在面板里点击对应 Provider → 填入 API Key → 保存。一次填入,所有工具共用。
给 Claude Code 、Aider 、Goose 、Continue 、Amp 等命令行工具配置模型来源。
选一个 Provider → 开启开关 → 重新打开终端。OpenRelay 会自动设置好环境变量,不需要你手动编辑 .zshrc 或 .bashrc。
给 Cursor 、Windsurf 、VS Code Copilot 等 IDE 配置外部模型来源。
选 Provider 和模型 → 点启动 → 从面板按钮打开 IDE 。
把多个 Provider 合并成一个虚拟模型,自动故障转移。
场景:你有 Claude Code 订阅,想在 Cursor 里也用 Opus 4.6 ,不想额外花 Anthropic API 的钱( Opus API 价格:$15/M 输入 + $75/M 输出)。
步骤:
完成。现在 Cursor 里的每次对话都在用你 Claude Code 订阅的 Opus 4.6 ,不消耗 Cursor 自己的配额。
注意:Claude Code 需要在后台保持运行状态。
场景:想在 Aider 里用 Claude Opus 4.6 ,但不想走付费 API 。
方法一:面板一键配置(推荐)
aider --model claude-opus-4-6
方法二:手动设置环境变量
Windows (PowerShell):
$env:ANTHROPIC_BASE_URL="http://localhost:18765"
$env:ANTHROPIC_API_KEY="unused"
aider --model claude-opus-4-6
macOS / Linux:
export ANTHROPIC_BASE_URL=http://localhost:18765
export ANTHROPIC_API_KEY=unused
aider --model claude-opus-4-6
Goose 、Continue 、Amp 、OpenCode 等工具同理——只要支持 Anthropic API 或 OpenAI API 格式就能接。
场景:你在开发一个项目,需要调用 Claude Opus 4.6 或 GPT-5.4 ,但不想在 API 费用上烧钱。
OpenRelay 兼容 OpenAI 和 Anthropic 两种 API 格式,你的代码几乎不需要改动。
import anthropic
# 把 base_url 指向 OpenRelay ,Key 随便填
client = anthropic.Anthropic(
base_url="http://localhost:18765",
api_key="unused"
)
response = client.messages.create(
model="claude-opus-4-6", # 走 Claude Code 的配额
max_tokens=4096,
messages=[{"role": "user", "content": "用 Python 写一个快速排序"}]
)
print(response.content[0].text)
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:18765/v1",
api_key="unused"
)
response = client.chat.completions.create(
model="gpt-5.4", # 走 Codex 的配额
messages=[{"role": "user", "content": "用 Go 写一个 HTTP 服务器"}]
)
print(response.choices[0].message.content)
import Anthropic from '@anthropic-ai/sdk';
const client = new Anthropic({
baseURL: 'http://localhost:18765',
apiKey: 'unused',
});
const response = await client.messages.create({
model: 'claude-opus-4-6',
max_tokens: 4096,
messages: [{ role: 'user', content: '写一个 React 登录组件' }],
});
console.log(response.content[0].text);
curl http://localhost:18765/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer unused" \
-d '{
"model": "claude-opus-4-6",
"messages": [{"role": "user", "content": "Hello"}]
}'
curl http://localhost:18765/v1/models
返回当前所有可用的模型列表,包括每个模型来自哪个 Provider 。
如果多个 Provider 都有同一个模型名(比如 Claude Code 和 Anthropic API 都有 claude-opus-4-6),你可以指定走哪个 Provider:
# 指定走 Kiro 的配额
curl http://localhost:18765/kiro/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer unused" \
-d '{"model": "claude-sonnet-4.5", "messages": [{"role": "user", "content": "Hello"}]}'
URL 格式:http://localhost:18765/{provider 名称}/v1/...
对应的环境变量写法:
# 在 Aider 里专门走 Kiro
export ANTHROPIC_BASE_URL=http://localhost:18765/kiro
场景:你不想手动切换 Provider ,希望 A 用完自动切 B ,B 用完自动切 C 。
在 Custom 标签页创建模型组:
模型组名称:coding-daily
成员:
1. Kiro → claude-sonnet-4.5 (优先用免费的)
2. Claude Code → claude-sonnet-4-6 ( Kiro 用完切这个)
3. Codex → gpt-5.4 (再用完切 GPT-5 )
4. Groq → llama-3.3-70b-versatile (兜底,速度快)
然后在你的项目里直接用这个模型组名称:
client = anthropic.Anthropic(
base_url="http://localhost:18765",
api_key="unused"
)
response = client.messages.create(
model="coding-daily", # 模型组名称
max_tokens=4096,
messages=[{"role": "user", "content": "重构这个函数"}]
)
OpenRelay 会按顺序尝试每个 Provider ,当前 Provider 限流或出错时自动切到下一个。你的代码不需要处理任何重试逻辑。
截至 2026 年 4 月 10 日,OpenRelay 支持 36 个 Provider ,470+ 个模型。
我们算一笔账——完全不花钱,只装免费工具 + 注册免费 API ,你能拿到什么:
Codex (免费) → GPT-5.4 当前 OpenAI 最强模型
Kiro (免费) → Claude Sonnet 4.5 Anthropic 主力模型
Gemini CLI (免费) → Gemini 2.5 Pro Google 最强模型,100 万上下文
Groq (免费 Key ) → Llama 3.3 70B 14,400 次/天,极速推理
Cerebras (免费 Key )→ Qwen 235B 100 万 token/天
SambaNova (免费 Key )→ DeepSeek V3.2 200K token/天
HuggingFace (免费) → DeepSeek R1 最强开源推理模型
GPT-5.4 + Sonnet 4.5 + Gemini 2.5 Pro + DeepSeek R1 + Llama 70B,全免费。
这些模型如果走官方 API 要多少钱?
| 模型 | 官方 API 价格 | 你的成本 |
|---|---|---|
| GPT-5.4 | ~$30/M tokens | **$0**( Codex 免费) | |
| Claude Sonnet 4.5 | $3/$15 per M | $0( Kiro 免费) |
| Gemini 2.5 Pro | $1.25/$10 per M | $0( Gemini CLI 免费) |
| DeepSeek R1 | ¥4/M tokens | $0( HuggingFace 免费) |
很多开发者已经在付 Claude Code 的 $20/月。这笔钱你本来就在花,但 Opus 4.6 只能在终端用。
通过 OpenRelay ,这个 Opus 可以接入 Cursor 、Aider 、你自己的项目——等于 $20 订阅的价值翻了好几倍。
Opus 4.6 走 API 的价格是 $15/M 输入 + $75/M 输出。写半天代码轻松产生几十美元的 API 调用,现在全部用订阅覆盖。
把以上全部合在一起,我一天的免费调用量:
顶级推理:Opus 4.6 ( Claude Code )+ GPT-5.4 ( Codex ) — 无限 + 免费
日常编码:Sonnet 4.5 ( Kiro ~50 次)+ Sonnet 4.6 ( Claude Code ) — 免费
快速补全:Groq Llama 70B ( 14,400 次/天) — 免费
长文本:Gemini 2.5 Pro ( 100 万上下文) — 免费
推理链:DeepSeek R1 ( HuggingFace ) — 免费
一天下来,各种顶级模型随便切,API 费用:$0 。
完整模型列表通过 curl http://localhost:18765/v1/models 查看。
几个关于安全的事实:
跟"反代/中转"完全不同。反代是多人共用一个 Key 过别人的服务器,有泄露和封号风险。OpenRelay 是你自己用自己的配额,本地直连,Provider 看到的就是一个正常用户。
Q: IDE Provider 需要对应工具一直开着吗?
是的。比如用 Claude Code 的配额,Claude Code 进程需要在后台运行。关了就断了,OpenRelay 会自动切到其他可用 Provider 。
Q: 支持哪些操作系统?
macOS ( Intel / Apple Silicon )、Windows (x64)、Linux (x64)。
Q: 会不会被封号?
不会。你的请求从自己的电脑直连 AI Provider ,跟正常使用完全一样。这不是"反代"。
Q: 有什么限制?
OpenRelay 本身没有限制。瓶颈在于各 Provider 的免费配额上限(比如 Kiro 每天约 50 次,Groq 14,400 次/天)。配额用完了,OpenRelay 会自动切到下一个 Provider 。多注册几个免费 Provider ,配额叠加,日常使用完全够。
Q: 需要注册 OpenRelay 账号吗?
需要注册一个免费账号。Pro 版本提供更多功能(模型组、更多 Provider ),但基础功能免费可用。
Q: 跟 One-API / LiteLLM 有什么区别?
One-API 和 LiteLLM 是服务端部署方案,面向团队。OpenRelay 是个人本地工具,核心优势是自动发现 IDE 工具里的免费配额——Codex 白送的 GPT-5.4 、Kiro 白送的 Sonnet 4.5 ,这些 One-API 接不了。
不装 OpenRelay 之前:你有 Claude Code 的 Opus 但只能在终端用,Codex 白送的 GPT-5.4 躺着吃灰,Kiro 的 Sonnet 4.5 只能在 Kiro 里用。
装了之后:一个端点,所有模型,任何工具。
白嫖到的顶级模型:GPT-5.4 + Claude Opus 4.6 + Sonnet 4.5 + Gemini 2.5 Pro + DeepSeek R1 + Llama 70B 。
API 费用:**$0 。**
GitHub:github.com/romgX/openrelay
1
LASockpuppet 1 天前
是可行的吗,有 hxd 试过吗
|
2
as197471128 1 天前
没试 已 star
|
3
rxc420902911 OP PRO @LASockpuppet 什么意思?讲明白一些?
|
4
rxc420902911 OP PRO @as197471128 感谢支持
|
5
millken 1 天前
会扫描 KEY 上传吗?
|
6
afew 1 天前
蛮好的,即便不使用这个工具,也能总结到不少有用的信息
|
7
blueorange 1 天前
牛掰, 正好 需要呢, 我去试试
|
8
rxc420902911 OP PRO @millken 不会,完全本地
|
9
move 16 小时 23 分钟前
可以在 claude code 里面使用 codex 的 GPT-5.4 吗?
|
10
rxc420902911 OP PRO @move 安全没有问题
|