V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Hyvi
V2EX  ›  Google

Google one AI Pro 使用额度限制,这个量感觉不够

  •  
  •   Hyvi · 23 小时 12 分钟前 · 1659 次点击

    代理模式和 Gemini CLI 的配额

    Gemini Code Assist 代理模式和 Gemini CLI 的请求配额会合并计算

    每个用户每分钟的请求数 120 每个用户每天的请求数 1500 https://developers.google.com/gemini-code-assist/resources/quotas?hl=zh-cn

    第 1 条附言  ·  22 小时 34 分钟前
    Agent failed before reply: All models failed (1): google-gemini-cli/gemini-3-pro-preview: Provider google-gemini-cli is in cooldown (all profiles unavailable) (rate_limit).
    Logs: openclaw logs --follow

    频率也太高了,时不时来一下。
    第 2 条附言  ·  22 小时 34 分钟前
    Auto (Gemini 3) Usage │
    │ Model Reqs Usage remaining │
    │ ──────────────────────────────────────────────────────────── │
    │ gemini-2.5-flash - 98.7% resets in 21h 54m │
    │ gemini-2.5-flash-lite - 99.1% resets in 22h 4m │
    │ gemini-2.5-pro - 89.3% resets in 19h 8m │
    │ gemini-3-flash-preview - 98.7% resets in 21h 54m │
    │ gemini-3.1-pro-preview - 89.3% resets in 19h 8m │
    │但是呢,从剩余量上面来看,他还剩很多啊。
    第 3 条附言  ·  22 小时 33 分钟前
    在哪里能看到实时限制请求次数数据呀。
    14 条回复    2026-03-15 09:48:25 +08:00
    YanSeven
        1
    YanSeven  
       23 小时 0 分钟前
    google 这么搞就把一部分愿意付费的给搞走了。留下一批打游击薅羊毛的。
    euph
        2
    euph  
       22 小时 25 分钟前   ❤️ 1
    确实,他不去搞薅羊毛的,学老中搞一刀切,结果原来愿意付费的也不愿意了。毫无诚信说改就改
    gibber
        3
    gibber  
       21 小时 53 分钟前
    日常耍猴了
    iorilu
        4
    iorilu  
       20 小时 58 分钟前
    天天改规则阿, 搞不懂了
    iorilu
        5
    iorilu  
       20 小时 37 分钟前
    @euph 确实, 谷歌自己搞什么一个人邀请 5 个人这种, 额度居然还不是共享, 这不明摆着玩不下去码
    改成共享不就行了
    apibox
        6
    apibox  
       18 小时 56 分钟前
    天才程序员的每天都在陨落 ~
    jaysonmac
        7
    jaysonmac  
       17 小时 3 分钟前
    没有 gemini-3-pro-preview 了,改成 gemini-3.1-pro-preview
    lizhenda
        8
    lizhenda  
       16 小时 57 分钟前
    因为前天谷歌开始砍 PRO 了,全球都在骂
    Hyvi
        9
    Hyvi  
    OP
       16 小时 5 分钟前
    @lizhenda 该骂。
    lanweizhujiao
        10
    lanweizhujiao  
       15 小时 16 分钟前
    Gemini 3.1 Pro (High)
    Refreshes in 3 days, 18 hours
    Gemini 3.1 Pro (Low)
    Refreshes in 3 days, 18 hours
    Gemini 3 Flash
    Refreshes in 4 hours, 52 minutes
    Claude Sonnet 4.6 (Thinking)
    Refreshes in 4 days, 2 hours
    Claude Opus 4.6 (Thinking)
    Refreshes in 4 days, 2 hours
    GPT-OSS 120B (Medium)
    Refreshes in 4 days, 2 hours
    为啥我的就得 7day 了 哎
    Hyvi
        11
    Hyvi  
    OP
       14 小时 46 分钟前
    @jaysonmac openclaw 按照这个流程配置了,重启后,选择模型,报错“Model "google-gemini-cli/gemini-3.1-pro-preview" is not allowed. Use /models to list providers, or /models <provider> to list models.”


    步骤:

    这是一个非常好的问题!我们刚刚一起经历了整个过程,这正好可以用来总结一下。

    在 OpenClaw 中添加一个新模型,比如 Google 的新 Gemini 模型,通常分为三个主要步骤:

    第一步:找到模型的“官方全名”

    首先,你需要知道这个模型在 OpenClaw 系统里的确切名称。这个名称通常由两部分组成:提供商/模型 ID 。

    • 提供商 (Provider): 指的是提供这个模型的服务,比如 google-gemini-cli 。
    • 模型 ID (Model ID): 指的是模型自身的具体名称,比如 gemini-1.5-pro-latest 或我们刚刚处理的 gemini-3.1-pro-preview 。

    所以,完整的模型“官方全名”就是 google-gemini-cli/gemini-3.1-pro-preview 。

    你通常可以在模型的官方文档(比如 Google AI Studio )或者提供商的命令行工具中找到这个 ID 。

    第二步:编辑配置文件 .openclaw.json

    这是最核心的一步。你需要把这个新模型的全名添加到一个名为 models 的配置对象中。

    1. 打开你的配置文件:/home/hyvi/.openclaw/openclaw.json
    2. 找到路径 agents.defaults.models 。

    修改前可能看起来像这样:

    "models": {
    "google-gemini-cli/gemini-3-flash-preview": {},
    "google-gemini-cli/gemini-2.5-pro": {},
    "google-gemini-cli/gemini-2.5-flash": {}
    }修改后,你需要把新模型加进去(注意,值是一个空对象 {} 即可):

    "models": {
    "google-gemini-cli/gemini-3.1-pro-preview": {}, // <-- 这是新加的行
    "google-gemini-cli/gemini-3-flash-preview": {},
    "google-gemini-cli/gemini-2.5-pro": {},
    "google-gemini-cli/gemini-2.5-flash": {}
    }这个 models 对象就像一个“白名单”,只有在这里列出的模型才被允许使用。

    (可选,但推荐)
    你还可以把这个新模型添加到 fallbacks (备用模型) 列表中,这样当你的主模型不可用时,系统可以自动切换到这个新模型。

    找到路径 agents.defaults.model.fallbacks ,并把新模型加到数组里:

    "fallbacks": [
    "google-gemini-cli/gemini-3.1-pro-preview", // <-- 加在这里
    "google-gemini-cli/gemini-3-flash-preview",
    "google-gemini-cli/gemini-2.5-pro",
    // ...
    ]第三步:让配置生效(重启服务)

    这是最关键也最容易出错的一步。正如我们刚才经历的,仅仅保存文件是不够的,你必须通知正在运行的 OpenClaw 服务去重新加载这个配置文件。

    最可靠的方法就是我们最后成功使用的方法:强制应用配置。

    你可以通过我(聊天机器人)来执行这个操作,或者在你的服务器终端里运行 openclaw 命令(如果 PATH 设置正确的话)。

    通过我来操作:
    就像我们刚刚做的那样,我可以读取修改后的文件,然后使用 gateway config.apply 命令将它整个应用,服务会自动重启。

    通过终端操作:

    # 确保你的配置文件已经保存好
    openclaw gateway restart 注意:从终端执行 restart 需要你的配置文件里有 "restart": true 这个设置,否则会像我们一开始那样被拒绝。

    总结

    所以,整个流程就是:

    1. 找到模型全名 (provider/model-id)。
    2. 编辑 .openclaw.json ,把它加到 agents.defaults.models 对象里。
    3. 重启 OpenClaw 服务,以加载新的配置。

    希望这个总结对你有帮助!
    Hyvi
        12
    Hyvi  
    OP
       8 小时 51 分钟前
    我找到问题的原因了,并且已经帮您在底层彻底修复了它!

    为什么会一直报错 "not allowed"?


    在 OpenClaw 的底层逻辑中,仅仅把模型加入到 agents.defaults.models 里还不够。OpenClaw 在验证模型是否合法时,会检查三个地方:
    1. 它内置的“已知模型库”( Catalog )。gemini-2.5-pro 就在这个库里,所以它默认是允许的。
    2. 您是否把这个模型对应的服务商( Provider )配置为了自定义提供商。
    3. 它是否属于受信任的 CLI 后端( CLI Backends )。


    因为 gemini-3.1-pro-preview 实在太新了,OpenClaw 内置的已知模型库里还没有它。因此,即使您在许可名单里写了它,OpenClaw
    因为“不认识”它属于哪个有效的自定义服务商,而在最终加载时默默地把它剔除了。

    我是怎么修复的:


    我编写了一个脚本直接修改了您的 openclaw.json ,在里面显式声明了 google-gemini-cli 作为一个受信任的 CLI 后端提供商。


    我在您的配置中增加了类似这样的底层设置:
    1 "agents": {
    2 "defaults": {
    3 "cliBackends": {
    4 "google-gemini-cli": {
    5 "command": "gemini"
    6 }
    7 }
    8 }
    9 }
    并且我已经成功帮您硬重启了 OpenClaw 的网关服务(并且没有出现任何配置报错)。

    现在,OpenClaw 已经完全信任 google-gemini-cli 提供商下的所有自定义模型。


    请您现在立即去 Telegram 再次尝试切换或选择 google-gemini-cli/gemini-3.1-pro-preview 模型,这次应该可以完美运行了!期待您的好消息!


    虽然慢了点,还是很厉害。完美解决。
    Hyvi
        13
    Hyvi  
    OP
       8 小时 42 分钟前
    @lanweizhujiao AI pro 套餐吗?
    Hyvi
        14
    Hyvi  
    OP
       1 小时 7 分钟前 via iPhone
    @Hyvi 今天使用下来,说一下感受,就是它会输出很多一些中间的过程,但是中间的过程并不是需要的,而且非常多影响查看回复的内容。还是切换回原来的方案,但是用不了 3.1 Pro 、Preview
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2790 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 02:55 · PVG 10:55 · LAX 19:55 · JFK 22:55
    ♥ Do have faith in what you're doing.