职贝云数AI新零售门户

标题: 我们深度分析了 Manus 的万字长文,为你揭示 AI Agent 成功的真正秘诀 [打印本页]

作者: 2TWRsXY3o    时间: 前天 16:55
标题: 我们深度分析了 Manus 的万字长文,为你揭示 AI Agent 成功的真正秘诀
TL; DR :



(, 下载次数: 0)
AI Agent 的热度席卷了整个科技圈,从自动预订行程到辅助编写代码,那些酷炫的演示视频让我们对充满了有限想象。但假如你和我们一样,深化观察或亲身实际过,就会发现一个残酷的理想:大多数 AI Agent 在从“演示”走向“适用”的路上,都摔得很惨 —— 它们会“失忆”,遗忘几分钟前的对话;会“跑偏”,被有关信息带跑;甚至会“一本正派地胡说八道”。这些成绩,正在妨碍 AI Agent 真正落地。
合理我们为此感到困惑时,一篇来自 Manus 的外部复盘长文,给我们带来了全新的视角。这篇文章充满了来自一线的实战阅历。明天,我们就带大家一同解读这篇文章,一同看看为什么说“上下文工程” (Context Engineering) ,而非“提示词工程” (Prompt Engineering),才是通往通用人工智能的真正基石?



01  你的 AI 为何像个“人工智障”?我们从根上找到了病因

(, 下载次数: 0)

想象一个场景:你让 AI 助手帮你预订一张本周五早晨去上海的机票,并给出明白指令:“早晨7点后降落,经济舱,价格在1500元以内。”AI 自信满满地末尾工作,结果却是一场灾难。它能够在几个网站间白费跳转,最终告诉你“义务失败”;或者更糟,它完全忘了你的核心要求,给你订了张周六的头号舱。

这种体验,正是当前 AI Agent 技术“脆弱性”的集中表现。这些成绩并非孤立的程序错误,而是根植于一种过时的开发范式——过度依赖“提示词工程”(Prompt Engineering)。这种方法试图经过精心雕琢“咒语”(即提示词)来驱动一个黑箱模型,却忽略了为模型提供在复杂理想世界中导航所必需的环境感知、持久记忆和结构化推理才能。

成绩的根源不在于 GPT-4 或 Claude 3 不够“聪明”,而在于驱动它的智能体框架存在系统性缺陷。失败的缘由不在于其智力,而在于缺乏感知环境的必要工具。这种普遍的不牢靠性,曾经催生出一个妨碍 AI 商业化的宏大妨碍——“智能体信任鸿沟”(Agent Trust Gap)。弥合这一鸿沟,正是“上下文工程”要处理的核心命题。



02  告别“提示词炼丹”,拥抱“上下文工程”:AI开发的游戏规则变了

Manus 团队在其深度分析长文中揭示的秘诀,并非某种更高级的提示词技巧,而是一种全新的、系统性的方法论:上下文工程(Context Engineering)。

它是一门设计、构建和管理 AI Agent 运转时所依赖的残缺信息环境的学科。假如说“提示词工程”是给飞行员一份静态的飞行计划,那么“上下文工程”就是为他打造整个驾驶舱:提供实时仪表盘(形态管理)、导航系统(世界模型)、通讯雷达(工具编排)和传感器(感知系统)。飞行员(LLM)的决策才能固然重要,但其最终能否成功,完全取决于其所处的驾驶舱的精细程度。
维度 (Dimension)传统提示词工程 (Traditional Prompt Engineering)Manus的上下文工程 (Context Engineering)
核心焦点 (Core Focus)优化单次输入的指令 (Optimizing the initial instruction)构建智能体残缺的推理环境 (Structuring the agent's entire reasoning environment)
信息范围 (Information Scope)静态的,局限于提示词和上下文窗口 (Static, limited to the prompt and context window)动态、持久化、可外部扩展的 (Dynamic, persistent, and external)
形态感知 (State Awareness)有形态的,每次交互都是独立的 (Stateless; each turn is largely independent)有形态的,持续追踪目的、进度和历史 (Stateful; tracks goals, progress, and history)
错误处理 (Error Handling)脆弱的,遇错则中缀或需用户干涉 (Brittle; fails on error or requires user intervention)有韧性的,为自我修正和重试而设计 (Resilient; designed for self-correction and retries)
目的 (Goal)生成一次高质量的回复 (Generate a single, high-quality response)完成一个复杂、多步、长周期的义务 (Complete a complex, multi-step, long-running task)

这一范式转移揭示了将来AI竞争的终极战场:随着基础大模型功能日益趋同,真正的护城河将不再是模型本身,而是围绕模型构建的“上下文工程”框架的质量。这标志着 AI Agent 开发正在从一门依赖直觉的“技艺”,演化为一门严谨的“工程学科”。



03  拆解 Manus 的“四大支柱”:构建超级智能体的核心架构

(, 下载次数: 0)

上下文工程由四个严密协作的技术支柱构成,它们共同为 LLM 打造了一个高功能的“外骨骼”。

“大脑”:构建动态世界模型与记忆系统

LLM 的上下文窗口有限,要克制这一点,就需求一个外部的、结构化的“世界模型”与记忆系统。这套系统通常分层设计:

“双手”:知晓工具的艺术性编排

为了与外部世界交互,智能体需求运用工具(API、函数等)。但高功能智能体需求的是对工具停止智能的、多步骤的编排(Orchestration)。它不只要决议用哪个工具,还要决议以何种顺序用,以及如何处理前往的结果。LLM 的角色从一个一无所知的知识库,转变为一个指挥家,指挥着由各种专业工具的组合,核心义务是知道如何找到答案,而非直接知道答案。

“看法”:形态管理与自我修正的关键作用

形态管理(State Management)是智能体外部“自我看法”的来源。经过有限形态机(FSM),智能体在任何时辰都处于一个明白定义的形态中,如 PLANNING(规划中)、EXECUTING_TOOL(执行工具中)、ERROR_RECOVERY(错误恢复中)。这种基于形态的架构,为完成弱小的错误处理机制提供了基础。当一个工具执行失败时,系统不会崩溃,而是切换到 ERROR_RECOVERY 形态,尝试备用方案或向用户求助,展现出弱小的韧性。这正是从“脚本”到“智能体”的决议性跨越。

“双眼”:为混乱数字世界打造的高级感知系统

一个 LLM 无法从上万行混乱的 HTML 代码中有效推理。感知系统(Perception)就是一个至关重要的预处理层,它担任将来自外部的原始、混乱的数据,清洗和结构化为 LLM 能了解的格式。例如,在处理网页时,它会剥离广告、标记关键按钮、将页面规划转换为简约的结构化数据。这极大地降低了 LLM 的认知负荷,让其能集中精神于最高价值的义务——推理、规划和决策。



04  实战推演:当“提示词工程”遇上“上下文工程”,差距终究有多大?

义务: “为5人团队策划一次为期3天的异地团建。地点选在临近城市,需求找到一家带会议室的酒店,预订3间标准房和2间豪华房,寻觅三家高评分餐厅(一家对素食者敌对),并将最终行程草案整理到 Google 文档中。”



05  写给一切 AI 构建者:通往将来的举动指南与终极心法

对 Manus 所倡导的上下文工程停止深度分析,最终可以为一切 AI 从业者提炼出一份战略性的举动蓝图。


将来是被工程化构建出来的,而不是被动等待发现的。 AI 才能的下一次伟大飞跃,将由那些掌握了这门新兴工程学科的团队,经过构建精细、牢靠、高效的系统而完成。Manus 的工作,本质上是一份举动的号召。通往将来的钥匙,不在于某个奥秘的新模型,而在于一门全新的、严谨的学科:上下文工程。


免责声明:本文由 Vibehood 提供,仅供参考。本文不构成财务、投资或法律建议,也不作为任何特定策略或产品的背书或引荐。一切信息、预测和观点均能够变化,未经独立验证和咨询适当顾问不应依赖。






欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) Powered by Discuz! X3.5