职贝云数AI新零售门户

标题: Manus智能体研发复盘:创始人交底 [打印本页]

作者: OZQ    时间: 昨天 22:08
标题: Manus智能体研发复盘:创始人交底
2025年3月,一款名为Manus的AI智能体产品以“全球首款通用Agent”的标签刷屏科技圈,内测约请码在二手平台被炒至数万元。但是短短四个月后,这家明星创业公司却被曝撤离中国市场,核心团队迁往新加坡。就在外界对其“起落之谜”议论纷纷时,Manus结合创始人兼首席迷信家季逸超于7月19日发布了一篇英文长博客,初次从技术底层揭开了这场创业包围的真实历程——从4次重构智能体框架的坎坷,到将KV-Cache命中率提升10倍的技术打破,再到用文件系统承载“有限上下文”的创新实际,这篇长文不只是对Manus创业之路的复盘,更成为AI智能体赛道从业者的“避坑指南”。从“自研模型”到“上下文工程”的醒悟“上一次创业,我花了三年工夫从零训练NLP模型,结果GPT-3发布后,这些模型一夜之间变得有关紧要。”季逸超在博客中开篇即坦陈,这段惨痛阅历让Manus团队在创业初期就定下了截然不同的技术道路:放弃端到端自研大模型,转而基于开源或商业大模型做“上下文工程”。这一决策背后,是对AI行业底层逻辑的深入洞察:在GPT-4、Claude等基础模型疾速迭代的当下,创业公司试图经过“造轮子”式的底层创新完成超越,无异于“在退潮时钉死在海床上的柱子”。季逸超团队选择成为“随潮水坎坷的船”——经过优化模型输入的上下文设计,让现有大模型的才能得到最大释放。这一策略使得Manus的产品迭代周期从传统模型微调的“数周”紧缩到“小时级”,在往年3月爆火时,其核心功能仅依赖Claude 3.5 Sonnet和阿里通义千问的开源模型便完成了“挑选简历、房产研讨、股票分析”等复杂义务的自主执行。但“上下文工程”绝非简单的“套壳”。季逸超强调,这门“实验迷信”让团队付出了4次重构智能体框架的代价。他们将这个充满试错的过程戏称为“随机梯度下降”(Stochastic Graduate Descent)——每次发现更优的上下文塑造方法,就推倒重来。最终,这些探求凝结成一套独特的技术方法论,其中KV-Cache命中率被季逸超称为“消费级AI智能体的生命线”。智能体的“效率密码”:KV-Cache命中率与10倍成本革命“在Manus,平均输入与输入的Token比高达100:1。”季逸超在博客中抛出的这个数据,揭示了智能体与传统聊天机器人的本质差异:多轮义务中,模型需求处理的上下文长度会随工具调用、观察结果累积呈指数级增长,而输入往往只是简短的结构化指令。这种“长输入-短输入”形式下,推理延迟和成本成为致命瓶颈。处理方案藏在大模型的底层机制中——KV-Cache(键值缓存)。当模型处理反复前缀的上下文时,缓存的中间结果可以复用,大幅降低计算成本。季逸超团队实测发现,运用Claude Sonnet时,缓存输入Token的成本仅为0.3美元/百万Token,未缓存时则高达3美元/百万Token,相差10倍。为了最大化KV-Cache命中率,Manus团队总结出三条实战阅历:1. 保持提示前缀波动:避免在系统提示中加入工夫戳等动态信息。曾有工程师为让模型获取当前工夫,在提示扫尾加入准确到秒的工夫戳,导致缓存命中率骤降,推理成本飙升。2.上下文“只追加不修正”:任何对历史对话的编辑都会毁坏缓存延续性。Manus的做法是将一切操作和观察结果按工夫顺序追加,确保序列化的确定性——甚至严厉控制JSON键的顺序,避免编程言语自动排序导致的缓存失效。3.明白标记缓存断点:在系统提示结尾插入断点,确保模型更新时仅重新计算新增内容。例如,当用户切换义务时,Manus会在上下文中标注“=== NEW TASK ===”,既保持逻辑明晰,又避免缓存全体失效。这些细节的打磨,让Manus在处理50步以上的复杂义务时,仍能将单次推理成本控制在2美元以内,仅为同类产品的1/10。工具管理与“有限记忆”:智能体波动性的双重保障“给智能体添加100个工具,它反而会变得更笨。”季逸超在博客中直言工具爆炸式增长带来的应战。早期测试中,Manus团队尝试动态增减工具以适配不同义务,却发现模型频繁选错工具,甚至出现“幻觉动作”——由于工具定义的变动会导致整个上下文的KV-Cache失效,历史操作与当前工具集脱节。最终,他们发明了遮盖法”(Masking):不真正删除工具,而是在解码时屏蔽特定工具的Token概率。例如,当用户要求“仅用阅读器和计算器”时,Manus会让模型无法选择其他工具,但工具定义仍保留在上下文中。这种“伪删除”既保证了缓存波动,又经过“browser_”“shell_”等工具名前缀设计,让模型能疾速辨认可用工具类别。另一大打破是将文件系统作为“有限上下文”。虽然GPT-4等模型已支持128K Token上下文窗口,但面对网页、PDF等非结构化数据,仍容易超限。Manus的做法是让模型学会“自动读写文件”:将网页内容保存为HTML文件,分析结果存入CSV,需求时经过工具调用读取。这种“外部记忆”不只打破了上下文长度限制,还让信息持久化——用户关闭设备后,智能体可在云端继续工作,经过文件系统恢复之前的义务形态。从错误中学习:智能体的“反脆弱”设计“隐藏错误是最风险的行为。”季逸超在博客中分享了一个反常识发现:保留失败日志(如堆栈信息、错误提示)能让模型错误率下降37%。传统智能体遇到错误时,往往会重置上下文或静默重试,但Manus团队发现,当模型“看见”本人的失败途径——例如“调用股票API时参数错误导致前往403”,会自动调整后续决策,构成相似人类的“阅历学习”。为了强化这种才能,Manus设计了todo.md机制:在义务末尾时生成待办清单,每完成一步就更新形态,并将清单置顶在上下文末尾。这种“持续背诵目的”的方式,能有效避免模型在长义务中“遗忘初心”。例如,在挑选50份简历时,Manus会不断在上下文末尾重申“按RL阅历排名、生成Excel汇总”,确保最终输入符合用户需求。行业启示:当“通用智能”照进理想季逸超的复盘,恰逢AI智能体赛道迸发的关键节点——OpenAI发布ChatGPT Agent,Kimi推出“为智能体设计”的K2模型,行业正从“模型竞赛”转向“运用落地”。Manus的阅历揭示了一个核心趋向:将来智能体的竞争,不在于“多聪明”,而在于“多有用”。对于创业者,季逸超的建议直白而尖锐:“别再沉浸于端到端训练的幻想,上下文工程才是性价比最高的包围方向。”而对于用户,Manus的起落也敲响警钟——当一款产品宣称“通用智能”时,不妨诘问:它的上下文设计能否优雅?错误处理能否诚实?
AI知学社旧书上市限时优惠!




欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) Powered by Discuz! X3.5