V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
如果想在 V2EX 获得更好的推广效果,欢迎了解 PRO 会员机制:
https://www.v2ex.com/pro/about
rxc420902911
V2EX  ›  推广

如何实现 Token 自由

  •  
  •   rxc420902911 ·
    PRO
    · 2 天前 · 1106 次点击

    如何实现 Token 自由

    Claude Opus 4.6 、GPT-5.4 、Gemini 2.5 Pro——这些顶级模型走 API 动辄几十美元。但如果我告诉你,不花一分钱 API 费用,就能在你自己的项目里随便调用呢?


    先说结论:你能白嫖多少

    在开始之前,先看一张表。以下所有模型都可以零成本获得,不需要花一分钱 API 费用:

    工具 免费顶级模型 怎么拿 成本
    Codex GPT-5.4 、GPT-5.3 、GPT-5.2 安装 Codex 即可 免费
    Kiro Claude Sonnet 4.5 kiro.dev 注册 免费
    Gemini CLI Gemini 2.5 Pro ( 100 万上下文) Google 账号登录 免费
    Antigravity Gemini 3 Pro 安装 Antigravity 免费
    Groq Llama 3.3 70B 、Kimi K2 注册拿 API Key 免费 14,400 次/天
    Cerebras Qwen 235B 注册拿 API Key 免费 100 万 token/天
    SambaNova DeepSeek V3.2 、DeepSeek R1 注册拿 API Key 免费 200K token/天
    HuggingFace DeepSeek R1 、DeepSeek V3 注册即用 免费
    OpenRouter 27 个免费模型 注册即用 免费

    如果你还有 Claude Code 订阅($20/月,很多开发者已经有了):

    工具 额外解锁 说明
    Claude Code Opus 4.6 、Sonnet 4.6 订阅内无限 Sonnet
    VS Code Copilot Opus 4.6 、GPT-5.4 $10/月或学生免费

    把这些加在一起:GPT-5.4 + Claude Opus 4.6 + Claude Sonnet 4.5 + Gemini 2.5 Pro + DeepSeek R1 + Llama 70B,全部免费或用你已有的订阅。

    问题是:这些配额分散在十几个工具里,每个只能在自己的工具内使用。

    OpenRelay 做的事情就一件:把它们全部统一成一个 API 端点(http://localhost:18765),让你在任何工具、任何项目里直接调用。

    它跑在你自己的电脑上,请求直连 AI 后端,不经过任何第三方服务器。


    安装( 3 分钟)

    去 GitHub 下载对应系统的二进制文件,不需要 Node.js:

    👉 https://github.com/romgX/openrelay/releases

    Windows:

    # 下载 openrelay-windows-x64.exe ,双击运行
    # 或者命令行:
    .\openrelay-windows-x64.exe
    

    macOS ( Intel / Apple Silicon 通用):

    chmod +x openrelay-macos
    xattr -d com.apple.quarantine openrelay-macos   # 解除 macOS 安全限制
    ./openrelay-macos
    

    Linux:

    chmod +x openrelay-linux-x64
    ./openrelay-linux-x64
    

    启动后打开浏览器访问 http://localhost:18765,Web 面板会显示所有已发现的 Provider 。


    面板功能一览

    OpenRelay 的 Web 面板有 4 个核心标签页:

    Provider 面板(首页)

    左侧边栏显示所有 AI Provider ,绿灯 = 已连接,灰灯 = 未连接。

    Provider 分两类:

    IDE Provider (自动发现,零配置白嫖):

    装了对应工具就自动接入,不用填 Key ,不用做任何事。

    Provider 白嫖到的模型 获取成本
    Codex GPT-5.4, GPT-5.3, GPT-5.2 ( 7 个模型) 装 Codex 就行,完全免费
    Kiro Claude Sonnet 4.5, DeepSeek 3.2, Qwen3 等 8 个 注册就行,完全免费
    Antigravity Gemini 3 Pro 装就行,完全免费
    Gemini CLI Gemini 2.5 Pro( 100 万上下文) Google 账号登录,免费
    OpenCode GPT-5 Nano, Gemini 3, MiniMax 装就行,免费
    Claude Code Opus 4.6, Sonnet 4.6 ( 5 个模型) $20/月订阅(很多人已有)
    VS Code Copilot Opus 4.6, GPT-5.4( 15 个模型) $10/月或学生免费
    Windsurf Kimi K2.5, SWE-1.6 Windsurf 订阅

    重点:Codex + Kiro + Gemini CLI 三个全免费的工具加起来,你就已经有了 GPT-5.4 + Claude Sonnet 4.5 + Gemini 2.5 Pro 。 一分钱不花,全是顶级模型。

    API Provider (注册拿 Key ,全免费):

    这些去官网注册一个 API Key 就能用,免费额度大到日常根本用不完。

    Provider 白嫖到的模型 免费额度 速度
    Groq Llama 3.3 70B, Kimi K2 14,400 次/天 最快之一 ~800 t/s
    Cerebras Qwen 235B, Llama 70B 100 万 token/天 极快 ~2000 t/s
    SambaNova DeepSeek V3.2, R1, Llama 405B 200K token/天
    HuggingFace DeepSeek R1, V3, 100+ 模型 免费推理 中等
    OpenRouter 27 个 :free 模型 各模型独立额度 看模型
    Cloudflare Llama 70B, Qwen 32B Workers AI 免费 中等
    DashScope DeepSeek V3.2, Qwen3 全系列 注册送额度 219 个模型

    注意 Groq 的 14,400 次/天——这意味着你每分钟可以调 10 次,全天不间断写代码都用不完。

    在面板里点击对应 Provider → 填入 API Key → 保存。一次填入,所有工具共用。

    Work 标签页( CLI 工具一键配置)

    给 Claude Code 、Aider 、Goose 、Continue 、Amp 等命令行工具配置模型来源。

    选一个 Provider → 开启开关 → 重新打开终端。OpenRelay 会自动设置好环境变量,不需要你手动编辑 .zshrc.bashrc

    IDE 标签页( GUI 工具代理)

    给 Cursor 、Windsurf 、VS Code Copilot 等 IDE 配置外部模型来源。

    选 Provider 和模型 → 点启动 → 从面板按钮打开 IDE 。

    Custom 标签页(模型组)

    把多个 Provider 合并成一个虚拟模型,自动故障转移。


    教程一:在 Cursor 里用 Claude Opus 4.6

    场景:你有 Claude Code 订阅,想在 Cursor 里也用 Opus 4.6 ,不想额外花 Anthropic API 的钱( Opus API 价格:$15/M 输入 + $75/M 输出)。

    步骤:

    1. 启动 OpenRelay ,确认侧边栏 Claude Code 显示绿灯
    2. 进入 IDE 标签页 → Cursor 区域
    3. Provider 选 Claude Code
    4. 模型选 claude-opus-4-6
    5. 启动
    6. 从面板的启动按钮打开 Cursor(重要:直接打开 Cursor 会绕过代理)

    完成。现在 Cursor 里的每次对话都在用你 Claude Code 订阅的 Opus 4.6 ,不消耗 Cursor 自己的配额。

    注意:Claude Code 需要在后台保持运行状态。


    教程二:在 Aider/Goose 等 CLI 工具里用 Opus

    场景:想在 Aider 里用 Claude Opus 4.6 ,但不想走付费 API 。

    方法一:面板一键配置(推荐)

    1. 进入 Work 标签页
    2. 找到 Aider → 选 Provider 为 Claude Code → 开启开关
    3. 重新打开终端
    4. 直接运行:
    aider --model claude-opus-4-6
    

    方法二:手动设置环境变量

    Windows (PowerShell):

    $env:ANTHROPIC_BASE_URL="http://localhost:18765"
    $env:ANTHROPIC_API_KEY="unused"
    
    aider --model claude-opus-4-6
    

    macOS / Linux:

    export ANTHROPIC_BASE_URL=http://localhost:18765
    export ANTHROPIC_API_KEY=unused
    
    aider --model claude-opus-4-6
    

    Goose 、Continue 、Amp 、OpenCode 等工具同理——只要支持 Anthropic API 或 OpenAI API 格式就能接。


    教程三:在你自己的代码里调用 Opus

    场景:你在开发一个项目,需要调用 Claude Opus 4.6 或 GPT-5.4 ,但不想在 API 费用上烧钱。

    OpenRelay 兼容 OpenAI 和 Anthropic 两种 API 格式,你的代码几乎不需要改动。

    Python ( Anthropic SDK )

    import anthropic
    
    # 把 base_url 指向 OpenRelay ,Key 随便填
    client = anthropic.Anthropic(
        base_url="http://localhost:18765",
        api_key="unused"
    )
    
    response = client.messages.create(
        model="claude-opus-4-6",        # 走 Claude Code 的配额
        max_tokens=4096,
        messages=[{"role": "user", "content": "用 Python 写一个快速排序"}]
    )
    
    print(response.content[0].text)
    

    Python ( OpenAI SDK )

    from openai import OpenAI
    
    client = OpenAI(
        base_url="http://localhost:18765/v1",
        api_key="unused"
    )
    
    response = client.chat.completions.create(
        model="gpt-5.4",               # 走 Codex 的配额
        messages=[{"role": "user", "content": "用 Go 写一个 HTTP 服务器"}]
    )
    
    print(response.choices[0].message.content)
    

    Node.js / TypeScript

    import Anthropic from '@anthropic-ai/sdk';
    
    const client = new Anthropic({
      baseURL: 'http://localhost:18765',
      apiKey: 'unused',
    });
    
    const response = await client.messages.create({
      model: 'claude-opus-4-6',
      max_tokens: 4096,
      messages: [{ role: 'user', content: '写一个 React 登录组件' }],
    });
    
    console.log(response.content[0].text);
    

    cURL (任何语言都能用)

    curl http://localhost:18765/v1/chat/completions \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer unused" \
      -d '{
        "model": "claude-opus-4-6",
        "messages": [{"role": "user", "content": "Hello"}]
      }'
    

    查看所有可用模型

    curl http://localhost:18765/v1/models
    

    返回当前所有可用的模型列表,包括每个模型来自哪个 Provider 。


    教程四:指定 Provider 路由

    如果多个 Provider 都有同一个模型名(比如 Claude Code 和 Anthropic API 都有 claude-opus-4-6),你可以指定走哪个 Provider:

    # 指定走 Kiro 的配额
    curl http://localhost:18765/kiro/v1/chat/completions \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer unused" \
      -d '{"model": "claude-sonnet-4.5", "messages": [{"role": "user", "content": "Hello"}]}'
    

    URL 格式:http://localhost:18765/{provider 名称}/v1/...

    对应的环境变量写法:

    # 在 Aider 里专门走 Kiro
    export ANTHROPIC_BASE_URL=http://localhost:18765/kiro
    

    教程五:配置模型组(自动故障转移)

    场景:你不想手动切换 Provider ,希望 A 用完自动切 B ,B 用完自动切 C 。

    Custom 标签页创建模型组:

    模型组名称:coding-daily
    成员:
      1. Kiro → claude-sonnet-4.5 (优先用免费的)
      2. Claude Code → claude-sonnet-4-6 ( Kiro 用完切这个)
      3. Codex → gpt-5.4 (再用完切 GPT-5 )
      4. Groq → llama-3.3-70b-versatile (兜底,速度快)
    

    然后在你的项目里直接用这个模型组名称:

    client = anthropic.Anthropic(
        base_url="http://localhost:18765",
        api_key="unused"
    )
    
    response = client.messages.create(
        model="coding-daily",    # 模型组名称
        max_tokens=4096,
        messages=[{"role": "user", "content": "重构这个函数"}]
    )
    

    OpenRelay 会按顺序尝试每个 Provider ,当前 Provider 限流或出错时自动切到下一个。你的代码不需要处理任何重试逻辑。


    白嫖天花板:你到底能免费用到什么程度

    截至 2026 年 4 月 10 日,OpenRelay 支持 36 个 Provider ,470+ 个模型

    我们算一笔账——完全不花钱,只装免费工具 + 注册免费 API ,你能拿到什么:

    零成本方案(不花一分钱)

    Codex (免费)      → GPT-5.4          当前 OpenAI 最强模型
    Kiro (免费)       → Claude Sonnet 4.5 Anthropic 主力模型
    Gemini CLI (免费)  → Gemini 2.5 Pro    Google 最强模型,100 万上下文
    Groq (免费 Key )   → Llama 3.3 70B     14,400 次/天,极速推理
    Cerebras (免费 Key )→ Qwen 235B        100 万 token/天
    SambaNova (免费 Key )→ DeepSeek V3.2    200K token/天
    HuggingFace (免费) → DeepSeek R1      最强开源推理模型
    

    GPT-5.4 + Sonnet 4.5 + Gemini 2.5 Pro + DeepSeek R1 + Llama 70B,全免费。

    这些模型如果走官方 API 要多少钱?

    模型 官方 API 价格 你的成本
    GPT-5.4 ~$30/M tokens | **$0**( Codex 免费)
    Claude Sonnet 4.5 $3/$15 per M $0( Kiro 免费)
    Gemini 2.5 Pro $1.25/$10 per M $0( Gemini CLI 免费)
    DeepSeek R1 ¥4/M tokens $0( HuggingFace 免费)

    如果你已有 Claude Code 订阅(再加 Opus )

    很多开发者已经在付 Claude Code 的 $20/月。这笔钱你本来就在花,但 Opus 4.6 只能在终端用

    通过 OpenRelay ,这个 Opus 可以接入 Cursor 、Aider 、你自己的项目——等于 $20 订阅的价值翻了好几倍

    Opus 4.6 走 API 的价格是 $15/M 输入 + $75/M 输出。写半天代码轻松产生几十美元的 API 调用,现在全部用订阅覆盖。

    配额叠加后的实际效果

    把以上全部合在一起,我一天的免费调用量:

    顶级推理:Opus 4.6 ( Claude Code )+ GPT-5.4 ( Codex )       — 无限 + 免费
    日常编码:Sonnet 4.5 ( Kiro ~50 次)+ Sonnet 4.6 ( Claude Code ) — 免费
    快速补全:Groq Llama 70B ( 14,400 次/天)                     — 免费
    长文本:Gemini 2.5 Pro ( 100 万上下文)                        — 免费
    推理链:DeepSeek R1 ( HuggingFace )                          — 免费
    

    一天下来,各种顶级模型随便切,API 费用:$0 。

    完整模型列表通过 curl http://localhost:18765/v1/models 查看。


    安全说明

    几个关于安全的事实:

    • 100% 本地运行 — OpenRelay 是一个跑在你电脑上的进程,没有远程服务器
    • 凭据不上传 — 所有 API Key 、Token 、Cookie 只在本地内存中使用
    • 请求直连 — 你的请求从你的电脑直接发到 AI Provider ( Anthropic/OpenAI/Google ),没有中间人
    • 不记录对话 — 日志只有错误信息和请求元数据( Provider 、模型名、状态码),不记录消息内容
    • 代码可审计 — 凭据处理代码公开可查

    跟"反代/中转"完全不同。反代是多人共用一个 Key 过别人的服务器,有泄露和封号风险。OpenRelay 是你自己用自己的配额,本地直连,Provider 看到的就是一个正常用户。


    常见问题

    Q: IDE Provider 需要对应工具一直开着吗?

    是的。比如用 Claude Code 的配额,Claude Code 进程需要在后台运行。关了就断了,OpenRelay 会自动切到其他可用 Provider 。

    Q: 支持哪些操作系统?

    macOS ( Intel / Apple Silicon )、Windows (x64)、Linux (x64)。

    Q: 会不会被封号?

    不会。你的请求从自己的电脑直连 AI Provider ,跟正常使用完全一样。这不是"反代"。

    Q: 有什么限制?

    OpenRelay 本身没有限制。瓶颈在于各 Provider 的免费配额上限(比如 Kiro 每天约 50 次,Groq 14,400 次/天)。配额用完了,OpenRelay 会自动切到下一个 Provider 。多注册几个免费 Provider ,配额叠加,日常使用完全够。

    Q: 需要注册 OpenRelay 账号吗?

    需要注册一个免费账号。Pro 版本提供更多功能(模型组、更多 Provider ),但基础功能免费可用。

    Q: 跟 One-API / LiteLLM 有什么区别?

    One-API 和 LiteLLM 是服务端部署方案,面向团队。OpenRelay 是个人本地工具,核心优势是自动发现 IDE 工具里的免费配额——Codex 白送的 GPT-5.4 、Kiro 白送的 Sonnet 4.5 ,这些 One-API 接不了。


    总结

    不装 OpenRelay 之前:你有 Claude Code 的 Opus 但只能在终端用,Codex 白送的 GPT-5.4 躺着吃灰,Kiro 的 Sonnet 4.5 只能在 Kiro 里用。

    装了之后:一个端点,所有模型,任何工具。

    白嫖到的顶级模型:GPT-5.4 + Claude Opus 4.6 + Sonnet 4.5 + Gemini 2.5 Pro + DeepSeek R1 + Llama 70B 。

    API 费用:**$0 。**


    GitHub:github.com/romgX/openrelay

    10 条回复    2026-04-14 11:39:29 +08:00
    LASockpuppet
        1
    LASockpuppet  
       1 天前
    是可行的吗,有 hxd 试过吗
    as197471128
        2
    as197471128  
       1 天前
    没试 已 star
    rxc420902911
        3
    rxc420902911  
    OP
    PRO
       1 天前
    @LASockpuppet 什么意思?讲明白一些?
    rxc420902911
        4
    rxc420902911  
    OP
    PRO
       1 天前
    @as197471128 感谢支持
    millken
        5
    millken  
       1 天前
    会扫描 KEY 上传吗?
    afew
        6
    afew  
       1 天前
    蛮好的,即便不使用这个工具,也能总结到不少有用的信息
    blueorange
        7
    blueorange  
       1 天前
    牛掰, 正好 需要呢, 我去试试
    rxc420902911
        8
    rxc420902911  
    OP
    PRO
       1 天前
    @millken 不会,完全本地
    move
        9
    move  
       16 小时 23 分钟前
    可以在 claude code 里面使用 codex 的 GPT-5.4 吗?
    rxc420902911
        10
    rxc420902911  
    OP
    PRO
       10 小时 34 分钟前
    @move 安全没有问题
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3188 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 14:14 · PVG 22:14 · LAX 07:14 · JFK 10:14
    ♥ Do have faith in what you're doing.