之前用 Antigravity-Manager 发现一个非常好的功能:请求日志管理。
每次 opencode 跟大模型交互时,都会记录下完整的 http 请求报文,这样可以看到 opencode 给大模型发了什么提示词。
实现思路应该类似一个 nginx 反代,opencode 请求 NGINX ,这个时候就能记录请求体,然后再转发给真实的大模型网站。
Antigravity-Manager 好像不支持自己自定义模型,我没找到配置的地方,请问是否有类似项目实现了大模型请求日志管理这个功能呢?
1
Yasuke 11 小时 48 分钟前
让 ai 自己逆向呢?
|
2
monsterxx03 9 小时 57 分钟前
年前做了一个 https://blog.monsterxx03.com/2026/02/15/hacking-claude-code-in-realtime/ 方式比较 hack, 通过系统防火墙劫持 https 流量, 然后做 mitm 实现的, 如果你只是想要裸的 http body, 用现成的 https://www.mitmproxy.org/ 也够了, 我这个工具还有个目的还为了还原出工具和 llm 之间的完整对话历史(这部分要解析 api, 目前只支持 anthropic 兼容接口)
|
3
cppgohan 9 小时 40 分钟前
之前也想过搞这个, 感觉最好的还是魔改 opencode. 如果用 litellm 套一层, 然后可以记录所有请求日志, 但是 provider 都要改了, 可能还有 api 接口不一致问题. 再折腾一些就是中间接一层代理拦截.
|
4
heqingpan 9 小时 24 分钟前 via Android
年前刚好用 rust 写了一个支持这功能的工具: https://github.com/heqingpan/ai-req-proxy
类似 nginx 反代再把请求响应内容打印、写入日志文件,项目已提供编译后的 |
5
heqingpan 9 小时 22 分钟前 via Android
项目已提供编译后的应用文件,可直接下载使用,感兴趣的可以试试。
|
6
andforce 9 小时 3 分钟前
@heqingpan #5 你好大佬,我有这个小问题: https://www.v2ex.com/t/1193764
能把 Cursor 的请求,转发到我本地搭建的服务端,实际走的是 KIMI 的, 但是让 Cursor 认为走的是 OpenAI 的接口吗 |
7
Anubisks 6 小时 30 分钟前 via Android
axonhub 一个开源项目
|
9
yanghanlin 4 小时 23 分钟前 via Android
LiteLLM?
|
10
lululau 4 小时 1 分钟前
mitmproxy --showhost -k --mode local:opencode
|
12
streamrx 3 小时 22 分钟前 via iPhone
opencode 本来就是开源的 你还需要黑盒分析什么吗
|
13
dasj 2 小时 15 分钟前
我理解这里是可观测性领域的工作,Claude Code 和 Gemini-Cli 都有类似的功能,记录 user prompt 、model completion 和 tool use 等信息,上面算是 trace 的内容,跟 token 、TTFT 、TPOT 等 metrics 做联动。
可以了解下 OpenTelemetry GenAI 领域的发展,目前还处于标准制定阶段。 |
14
Sped0n 1 小时 16 分钟前 via iPhone
如果你用 openrouter 的话,它的 log 面板最近加了这个功能
|