2025 年,是 Agent 真正开始爆发的一年。它不再只是 Demo 、Prompt 技巧或能力展示,而是被放进真实业务系统中,开始承担明确职责,也开始暴露真实问题。
我从 2024 年 开始做 LLM 和 Agent 相关项目,有过几次真正落地的,也有不少因为方向判断失误、工程复杂度失控而中途终止的项目。
过程中踩过不少坑,有一些比较简单,比如
seed参数以便于结果复现。langchain_openai 默认会吞掉 reasoning_content,导致收不到推理过程的内容,可以通过猴子补丁的方式修复。还有一些比较复杂,是架构设计和能力边界的问题,比如
把 Prompt 当成逻辑层使用 一开始为了省事,把判断条件、分支选择、状态切换全写进 Prompt 。 Prompt 越写越长,也越来越“聪明”,但问题也随之出现: 很难调试、很难复现,任何一句话的微调,都可能引发完全不同的行为。 到后面你会发现,系统不是坏在模型能力上,而是坏在逻辑藏在自然语言里,没人能真正控制它。
工具列表失控,模型不知道该用什么 工具越加越多,却缺少清晰的边界和分工。 对模型来说,这不是“能力增强”,而是决策负担: 相似功能的工具混在一起,调用条件模糊, 有时选错工具,有时干脆不用工具,行为看起来像“随机发挥”。 问题不在模型,而在于你并没有真正告诉它:什么时候该用、什么时候不该用。
没有给 Agent 设定清晰的能力上限 一些本就不适合模型判断的问题,被强行交给模型处理; 一些本该由人介入兜底的灰色区间,被乐观地当成“可以自动化”。 在小规模测试时,这类问题很难暴露, 但一旦进入真实场景,失败会成批出现,而且往往是系统性失败,不是修几个 Prompt 就能解决的。
在不断失败、复盘、修正的过程中,我开始系统性地整理这些经验,并借助 AI 一起校对认知与表达,逐步沉淀出了这份 **《 100 天搞定 Agent 开发》**。
它一方面是我自己的工程笔记和认知复盘,另一方面,也希望能为正在或准备进入 Agent 开发的工程师,少走一些我已经走过的弯路。
整个路径中,大量内容基于真实工程实践,配合主流开源框架的实战,包括但不限于:LangChain 、LangGraph 、Gradio 、Agno 、Mem0 、Vanna 、Langfuse 等。 整个学习路径结构大致如下:
这是一份还在持续打磨中的工程笔记,目前只整理了前两周。 如果你对 Agent 开发也有兴趣,或者正在踩类似的坑, 很欢迎一起交流、提意见,甚至直接参与共建。
👉 GitHub: https://github.com/flingjie/Agent-100-Days
建立对大语言模型的“第一性理解”:
- 模型在“算什么”,而不是“看起来会什么”
- 为什么它能表现出类智能行为
- 为什么它天然不稳定、不可控、但又非常有用
基于 Langchain 和 Gradio 动手实现一个英语学习 Agent
学习提示词工程的概念、通用技巧、和优化迭代技巧
学习基于 LLM 工具调用和原理,基于 langchain 的工具调用实现和 MCP 的设计开发
学习知识库相关知识,并基于 llamaindex 和 lightRAG 进行知识库实战
学习上下文工程并基于 langchain 进行实战
了解记忆系统及常见分类,并基于 langchain 和 mem0 进行实战
学习 Agent 的基本架构,思维方式的转变,以及动手实现一个 Agent
学习反思模式并进行实战应用”
HITL 模式的学习、设计与实战