做了一个开源项目叫 Signex。
它是个人情报 Agent ,完全运行在 Claude Code 上。
你告诉它关注什么方向,它自动从 15+ 数据源( HN 、GitHub 、Reddit 、Product Hunt 、arXiv 、V2EX 等)采集、去重、分析,生成报告。用了一段时间之后反馈会记住你的偏好,越用越准。
最近做了一个比较大的更新,想分享一下思路。
用了几周之后发现一个根本性的问题:信息源是公开的,谁都能获取。
真正决定情报质量的不是接了多少源,而是你的**"信息切面"** —— 你关注什么、怎么关注、以及你不知道自己没在关注什么。
一个写着「帮我盯 AI 编程工具」的监控意图,和一个包含决策场景、竞争假设、已知盲区的结构化意图,驱动出来的分析深度完全不同。
新增了两个核心 skills:
identity-shape —— 通过对话帮你塑造用户画像,帮你发现和表达自己的决策场景、认知视域、信息偏好、已知盲区。watch-shape —— 帮你审视自己的观察方式,它会从六个认知操作层次引导对话:两个技能背后有认知科学的理论支撑( Spencer-Brown 、Ashby 、Luhmann 、Weick 等),但对话过程中不会跟你讲术语。
不是所有认知操作在任何时候都有效。
"语言的边界"和"框架的制定"只在迭代阶段才执行——你至少跑过一轮、看过报告之后,这两个操作才有意义。
刚创建监控 Watch 时问用户"什么信号会让你更新心智模型",用户此时还没有心智模型,只能说"都可以吧"。
优化前的 intent.md:三行关键词 + 一个笼统的目标。 优化后的 intent.md:包含决策场景、竞争假设、已知盲区、框架颠覆信号的结构化文档。
两个 intent 会导致 agent runtime 搜索完全不同的信息。 Watch 所关注的信息切面完全不同,分析质量自然完全不同。
开源,AGPL-3.0:https://github.com/zhiyuzi/Signex,点个 star 支持我哦!谢谢!
欢迎试用和反馈。
如果你也在做类似的信息监控/情报分析方向的东西,欢迎交流~