"提示词工程已死,上下文工程永生。"
— 2026
当 LLM 应用从实验走向生产,单纯的提示词设计已不足以构建可靠的 AI 系统。
上下文工程解决的核心问题是:
如何在正确的时间,将正确的信息,以正确的格式,提供给模型?
这本书将带你系统掌握这门 AI 时代最核心的工程能力。
|
|
|
|
graph LR
A[理论基础] --> B[核心技术]
B --> C[实战方法]
C --> D[进阶探索]
A1[上下文工程定义] --> A
A2[LLM 原理] --> A
B1[RAG 技术栈] --> B
B2[记忆架构] --> B
B3[工具调用] --> B
C1[生产部署] --> C
C2[智能体开发] --> C
D1[前沿技术] --> D
D2[行业趋势] --> D
| 主题 | 你将掌握的能力 |
|---|---|
| RAG 系统 | 分块策略、嵌入模型选择、重排序优化、混合检索 |
| 记忆架构 | 工作记忆 / 短期记忆 / 长期记忆的设计与实现 |
| 工具调用 | Function Calling、MCP 协议、工具设计原则 |
| 智能体 | 单/多智能体上下文管理、状态追踪、记忆学习 |
| 生产实践 | 性能优化、成本控制、可观测性、安全治理 |
本书适合以下读者:
| 角色 | 阅读重点 |
|---|---|
| 🧑💻 AI 应用开发者 | 核心技术 + 实践方法 |
| ✍️ 提示词工程师 | 理论基础 + 进阶探索 |
| 📊 AI 产品经理 | 第一部分 + 第三部分概览 |
| 🏗️ AI 架构师 | 全书精读,重点关注生产实践 |
| 🔬 研究人员 | 进阶技术 + 未来展望 |
💡 前置知识:建议具备基础编程能力和对 LLM 的基本了解。
👉 推荐:GitBook 在线版
使用 HonKit 构建本地阅读环境:
npm install # 安装依赖
npx honkit serve # 启动本地服务启动后访问 http://localhost:4000 即可阅读。
📕 初学者:按顺序阅读全书
📗 有经验者:重点阅读第二、三部分
📘 快速参考:阅读每章末尾的"本章小结"
第一部分:认识上下文工程
├── 第1章:上下文工程概述
├── 第2章:大语言模型基础
└── 第3章:上下文工程框架
第二部分:核心技术
├── 第4章:写入策略 — 外部存储与记忆
├── 第5章:选择策略 — 检索增强生成
├── 第6章:压缩策略 — 上下文优化
└── 第7章:隔离策略 — 结构化设计
第三部分:实践方法
├── 第8章:工具调用与能力扩展
├── 第9章:智能体上下文管理
└── 第10章:生产环境最佳实践
第四部分:进阶与展望
├── 第11章:进阶技术与架构
└── 第12章:未来展望与发展趋势
附录
├── 附录A:术语表
├── 附录B:常用工具与框架
└── 附录C:参考资源
📖 完整目录请查看 SUMMARY.md
| 特色 | 说明 |
|---|---|
| 📐 体系完整 | 12 章内容,从入门到精通的完整学习路径 |
| 🔬 理论与实践并重 | 原理剖析 + 代码示例 + 最佳实践 |
| 🆕 紧跟前沿 | 涵盖 2026 年最新技术进展(Agentic RAG、Graph RAG、MCP 等) |
| 📊 图文并茂 | Mermaid 流程图 + 表格对比 + 结构化示例 |
欢迎贡献!您可以通过以下方式参与:
本书采用 CC BY-NC-SA 4.0 许可证。
您可以自由分享和演绎,但需署名、非商业使用、相同方式共享。
感谢所有为大模型技术发展做出贡献的研究者与工程师,特别是:
- Anthropic — 上下文工程领域的开创性工作与 MCP 协议
- OpenAI、Google、Meta — LLM 技术的持续创新
- LangChain、LlamaIndex — RAG 框架的宝贵贡献
- 所有开源社区的贡献者们
