职贝云数AI新零售门户
标题:
套壳也能逆袭?Manus创始人揭秘技术途径和创业反思:没有上下文工程,注定出局
[打印本页]
作者:
BLpt8N
时间:
昨天 21:58
标题:
套壳也能逆袭?Manus创始人揭秘技术途径和创业反思:没有上下文工程,注定出局
注释共:3152字 17图,估计阅读工夫:5分钟
大家好,这里是#AIGC创意猎人
我是与大家一同玩转AI的何先森Kevin
曾被誉为AI智能体范畴“黑马”的Manus,一度备受市场等待,却在进入中国市场后遭遇滑铁卢。
近日,Manus结合创始人季逸超稀有发声,发布了一篇深度长文,初次片面回顾这场坎坷背后的技术途径和创业反思。
在博客中,季逸超坦言,团队选择“套壳”而非自研大模型,是由于在前一次创业中深受“自觉自研”之苦。
因此,Manus决议依托开源或商业化大模型,专注于“上下文工程”,构建具有义务执行力的智能体。但这条路并不平整,团队在研发过程中先后阅历了四次框架重构,才逐渐探索出部分最优解。
回顾这段迂回的历程,季逸超总结道:AI智能体的关键不在于一味追求模型才能的极限,而在于如何精心设计上下文,让智能体真正“了解”并完成义务。
与此同时,行业竞争正日益加剧:OpenAI推出了全新的ChatGPT Agent系统,月之暗Kimi也发布了大模型K2,定位为下一代智能体的通用认知引擎。在基础模型厂商下场抢占智能体赛道的背景下,Manus和其他纯智能体创业团队正面临史无前例的压力与选择。
如何在巨头环伺下寻觅生活空间,成了他们必须面对的核心命题。
下面我们一同来看看:
原文链接:https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus
关键选择:上下文工程vs端到端训练
在Manus项目初期,开发团队面临一个关键选择:是运用开源基础模型训练端到端智能体,还是基于前沿模型的上下文学习才能构建智能体?这个决议将直接影响产品的迭代速度和市场竞争力。历史教训的启示在BERT时代,模型必须经过微调和评价才能迁移到新义务,每次迭代往往需求数周工夫。对于疾速发展的运用程序,尤其是在产品市场婚配之前,如此缓慢的反馈循环是致命的。GPT-3和Flan-T5的出现彻底改变了这一场面,开启了上下文学习的新途径。战略决策:拥抱上下文工程Manus选择押注上下文工程,使团队可以在几小时内而非几周内发布改进。这种方法让产品与底层模型保持正交关系——假如模型提高是退潮,Manus要做那艘船,而不是固定在海床上的柱子。
智能体操作架构与工作流程
(, 下载次数: 0)
上传
点击文件名下载附件
智能体接收用户输入后,经过一系列工具运用链来完成义务。
在每次迭代中,模型根据当前上下文从预定义的动作空间中选择一个动作,然后在环境中执行该动作以产生观察结果。
动作和观察被追加到上下文中,构成下一次迭代的输入。这个循环持续停止直到义务完成。
1. KV-Cache:消费级AI智能体的核心目的
(, 下载次数: 0)
上传
点击文件名下载附件
为什么KV-Cache命中率至关重要?KV-Cache命中率直接影响延迟和成本。
在智能体中,上下文随着每一步都在增长,而输入通常是相对较短的结构化函数调用。这使得智能体相比聊天机器人在预填充和解码之间的比率高度偏斜。在Manus中,平均输入与输入令牌比约为100:1。
(, 下载次数: 0)
上传
点击文件名下载附件
上下文工程优化实际•前缀波动化:保持系统提示和工具定义的波动性
•会话路由:运用会话ID在分布式工作节点间分歧路由央求
•缓存优化:确保前缀/提示缓存在自托管框架中启用
•上下文共享:相反前缀的上下文可以应用KV-cache大幅降低首个令牌工夫
2. 掩码策略:波动动作空间的核心设计
(, 下载次数: 0)
上传
点击文件名下载附件
为什么不动态删除工具?一个自然的想法是设计动态动作空间,能够运用RAG相似的方法按需加载工具。但实验表明,除非相对必要,应避免在迭代中动态添加或删除工具。❌ 毁坏KV-Cache分歧性
❌ 添加上下文复杂度和不波动性
(, 下载次数: 0)
上传
点击文件名下载附件
Manus处理方案Manus运用上下文感知形态机来管理工具可用性。不是删除工具,而是在解码时期掩码令牌logits,根据当前上下文防止或强迫选择某些动作。大多数模型提供商和推理框架都支持某种方式的呼应预填充,允许在不修正工具定义的状况下约束动作空间。
3. 文件系统即上下文:有限扩展的处理方案
(, 下载次数: 0)
上传
点击文件名下载附件
古代前沿大言语模型提供128K令牌或更多的上下文窗口。但在理想世界的智能体场景中,这往往不够,有时甚至成为负担。存在三个常见痛点:⚠️ 上下文长度限制:复杂义务需求超过窗口大小的历史信息
⚠️ 推理成本:更长的上下文意味着更高的计算开支
⚠️ 留意力稀释:长上下文能够导致关键信息被忽视
(, 下载次数: 0)
上传
点击文件名下载附件
Manus创新方案我们将文件系统作为终极上下文:大小有限、持久化自然、智能体可直接操作。模型学会按需写入和读取文件,将文件系统不只作为存储,而是作为结构化的外化内存。紧缩策略一直设计为可恢复:网页内容可以从上下文中删除只需保留URL,文档内容可以省略只需途径在沙箱中可用。
4. 经过复述操控留意力:智能化焦点管理
(, 下载次数: 0)
上传
点击文件名下载附件
为什么需求留意力操控?Manus中的典型义务平均需求约50次工具调用。
这是一个长循环,由于Manus依赖LLM停止决策制定,它容易偏离主题或遗忘早期目的,特别是在长上下文或复杂义务中。经过不断重写todo列表,Manus将其目的复述到上下文的末尾。
(, 下载次数: 0)
上传
点击文件名下载附件
核心机制这将全局计划推入模型的最近留意力范围,避免"迷失在中间"的成绩并减少目的错位。实践上,它运用自然言语来倾向本人的焦点朝向义务目的,无需特殊的架构更改。这种机制确保智能体一直记住其核心使命。
5. 保留错误信息:智能化错误恢复机制
(, 下载次数: 0)
上传
点击文件名下载附件
为什么错误是宝贵的学习资源?智能体会犯错误。这不是缺陷,而是理想。言语模型会产生幻觉,环境会前往错误,外部工具会出现缺点,不测的边缘状况会不断出现。在多步义务中,失败不是例外,而是循环的一部分。一种常见的冲动是隐藏这些错误,但这会带来代价:擦除失败会消弭证据,没有证据,模型就无法顺应。
(, 下载次数: 0)
上传
点击文件名下载附件
核心价值当模型看到失败的动作以及由此产生的观察或堆栈跟踪时,它会隐式更新其外部决计。这将其先验从相似动作中移开,减少反复相反错误的机会。错误恢复是真正智能体行为最明晰的目的之一,但在大多数学术工作和公共基准测试中依然代表性不足。
6. 避免Few-Shot圈套:形式多样性的重要性
(, 下载次数: 0)
上传
点击文件名下载附件
Few-shot提示的双刃剑效应Few-shot提示是改善LLM输入的常见技术。但在智能体系统中,它能够以巧妙的方式适得其反。言语模型是出色的模拟者;它们模拟上下文中的行为形式。假如您的上下文充满相似的过去动作-观察对,模型会倾向于遵照该形式,即便它不再是最优的。
(, 下载次数: 0)
上传
点击文件名下载附件
核心准绳处理方案是添加多样性。
Manus在动作和观察中引入大批结构化变异——不同的序列化模板、替代表述、顺序或格式的微噪声。这种受控随机性有助于打破形式并调整模型的留意力。换句话说,不要让本人堕入常规。上下文越一致,智能体越脆弱。
上下文工程:构建智能将来的基石
上下文工程依然是一门新兴迷信,但对于智能体系统来说,它曾经是必不可少的。模型能够会变得更强、更快、更便宜,但再多的原始才能也无法替代对内存、环境和反馈的需求。如何塑造上下文最终定义了智能体的行为方式:运转速度、恢复才能以及扩展范围。
(, 下载次数: 0)
上传
点击文件名下载附件
深度洞察与将来展望从Manus项目的实战阅历中,我们看到上下文工程不只是技术选择,更是战略思想的表现。它让我们可以在疾速变化的AI生态中保持矫捷,将模型提高的红利最大化转化为产品价值。技术哲学的转变:从训练模型到塑造上下文,从静态优化到动态顺应,从单一策略到系统化工程。这种转变不只降低了技术门槛,更重要的是加速了创新迭代。将来发展方向:随着形态空间模型(SSM)的发展,我们或许会见证基于外化内存的新一代智能体架构。这些智能体能够会完全重新定义我们对人工智能系统才能边界的认知。核心启示智能体的将来不在于更弱小的模型,而在于更智慧的上下文工程。
每一个精心设计的上下文,都是通向真正智能化将来的基石。技术深度解析 | 2025年AI Agent发展报告基于Manus项目实战阅历 | 上下文工程最佳实际分享
(, 下载次数: 0)
上传
点击文件名下载附件
欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/)
Powered by Discuz! X3.5