SHARED VOCABULARY
共同语言
在讨论智能体之前,先让所有人对这 10 个关键词形成同一个理解。点击任意卡片翻转,看正确用法和常见误区。
调研发现79% 的参与者团队对「上下文、提示词、边界」这几个词没有共同语言
上下文
Context
喂给模型的全部背景信息:系统提示词、对话记录、文档片段、工具返回值。上下文越精准,输出越靠谱。
点击翻转 → 看正确 vs 错误用法
提示词
Prompt
用户每次发给模型的具体指令或问题。好的提示词包含任务、约束、期望输出格式。
点击翻转 → 看正确 vs 错误用法
系统提示词
System Prompt
在对话开始前写好的角色设定,定义 Agent 的身份、职责范围、输出格式和边界规则。用户看不到但始终生效。
点击翻转 → 看正确 vs 错误用法
边界
Boundary
Agent 能做什么、不能做什么的明确界限。包括任务范围、数据权限、自动执行的条件和禁止动作。
点击翻转 → 看正确 vs 错误用法
Agent
Agent
能为目标自主规划、调用工具并执行多步动作的 AI 系统。和只能聊天的模型不同,Agent 有记忆、有工具、有行动力。
点击翻转 → 看正确 vs 错误用法
Copilot
Copilot
辅助人完成任务的 AI 工具,人始终在回路中做最终决策。和 Agent 的区别:Copilot 建议,人决定;Agent 规划并执行。
点击翻转 → 看正确 vs 错误用法
知识库
Knowledge Base
预先整理好的文档集合(SOP、FAQ、政策、备忘录),Agent 从中检索信息来回答问题,而不是靠自己编。
点击翻转 → 看正确 vs 错误用法
回退
Rollback / Fallback
Agent 出错时的兜底机制:谁来接手、多快能切回人工、出了问题怎么恢复。没有回退设计就不该上线。
点击翻转 → 看正确 vs 错误用法
人工复核
Human Review
在 Agent 输出生效前由人检查确认的环节。适用于高风险、不可逆或涉及对外承诺的场景。
点击翻转 → 看正确 vs 错误用法
工具调用
Tool Use
Agent 在对话过程中主动调用外部工具(搜索、数据库、API、日历等)来获取信息或执行动作,而不是只靠自己的知识。
点击翻转 → 看正确 vs 错误用法
TEAM ALIGNMENT CHECK
团队语言对齐度
你的团队在开会讨论 AI 时,大家说「提示词」指的是同一个东西吗?
当你说「上线一个 Agent」,团队能区分这和「用 ChatGPT 聊天」有什么不同吗?
你的团队讨论过「哪些场景需要人工复核、哪些可以全自动」这个问题吗?