职贝云数AI新零售门户

标题: 揭秘ManusAI:AI Agent 上下文工程阅历分享 [打印本页]

作者: jilidfTu    时间: 昨天 17:46
标题: 揭秘ManusAI:AI Agent 上下文工程阅历分享
ManusAI 在构建其 AI Agent 的过程中,选择了基于前沿模型的上下文学习才能,而非从头训练端到端模型。这一决策使得他们可以疾速迭代和部署改进,并使产品与底层模型解耦。但是,上下文工程并非易事,ManusAI 团队经过反复实验和架构探求,总结出了一系列宝贵的阅历教训。

1. 围绕 KV-Cache 停止设计

KV-Cache 命中率是消费阶段 AI Agent 最重要的目的,直接影响延迟和成本。在 Agent 操作中,上下文会随着每次迭代而增长,而输入通常较短,导致预填充和解码的比例高度倾斜。应用 KV-Cache 可以分明降低初次生成工夫(TTFT)和推理成本。

(, 下载次数: 0)

实际要点:
2. 遮盖而非移除

随着 Agent 才能的加强,其动作空间会变得越来越复杂。动态添加或移除工具会带来成绩,由于这会使 KV-Cache 失效,并能够导致模型混淆或幻觉。ManusAI 采用上下文感知的形态机来管理工具可用性,经过遮盖 token logits 来限制或强迫选择某些动作,而不是移除工具定义。

(, 下载次数: 0)

实际要点:
3. 将文件系统用作上下文

虽然古代 LLM 提供了宏大的上下文窗口,但在实践 Agent 场景中依然能够不足。观察结果能够非常庞大,模型功能会下降,并且长输入成本高昂。ManusAI 将文件系统视为终极上下文,模型可以按需读写文件,将文件系统不只用作存储,还用作结构化的外部化记忆。

(, 下载次数: 0)

实际要点:
4. 经过复述操纵留意力

Agent 在处理复杂义务时,会创建 todo.md 文件并逐渐更新。ManusAI 经过不断将待办事项列表重写到上下文的末尾,将全局计划推入模型的留意力范围,从而避免“中间遗失”成绩并减少目的错位。

(, 下载次数: 0)

实际要点:
5. 保留错误信息

Agent 会犯错误,隐藏这些错误解阻止模型学习和顺应。ManusAI 的阅历表明,将错误信息保留在上下文中是改进 Agent 行为的最有效方法之一。当模型看到失败的动作和结果观察或堆栈跟踪时,它会隐式更新其外部决计,从而减少反复相反错误的能够性。

(, 下载次数: 0)

实际要点:
6. 避免少样本圈套

少样本提示是一种常见的改进 LLM 输入的技术,但在 Agent 系统中能够会适得其反。言语模型是优秀的模拟者,假如上下文充满了相似的动作-观察对,模型就会倾向于遵照这种形式,即便它不再是最优的。ManusAI 经过引入大批结构化变体来添加多样性,例如不同的序列化模板、替代措辞、宏大的噪声或格式化,从而打破这种形式并调整模型的留意力。

实际要点:
结论

上下文工程对于 AI Agent 来说依然是一个新兴但至关重要的范畴。模型才能再强,也无法取代对记忆、环境和反馈的需求。

塑造上下文的方式决议了 Agent 的行为方式、运转速度、恢复才能以及扩展性。ManusAI 经过在数百万用户中停止真实世界测试,总结出了这些阅历教训,希望能协助其他构建 AI Agent 的团队更快地收敛并避免痛苦的迭代。
参考地址


往期文章:





欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) Powered by Discuz! X3.5