职贝云数AI新零售门户
标题:
Manus回应撤离中国市场缘由
[打印本页]
作者:
bNu6V5zl
时间:
前天 15:44
标题:
Manus回应撤离中国市场缘由
2025.07.19
本文字数:1333,阅读时长大约3分钟
作者 | 第一财经 吕倩
Manus近期撤出中国市场、清空国内社交账号内容,全力转战海外市场,官方解释缘由次要基于运营效率的调整及国际化规划。
(, 下载次数: 0)
上传
点击文件名下载附件
北京工夫7月19日,Manus结合创始人季逸超发布技术博客,首度从技术角度做出回应,总结创业以来在Agent研发与训练方面的阅历教训。
单从技术层面来看,季逸超表示Manus会侧重押注上下文(Context)工程,借助构造“记忆”与流程完成产品疾速迭代。次要包括押注上下文、不再训练模型,强调KV-Cache(Key-Value Cache,一种缓存机制)命中率意义,不动态添加工具,以及用文件系统承载持久上下文等方面。核心即节省底层模型训练成本,侧重训练效率的提高。
上下文在大模型中通常指模型在处理义务或生成输入内容时所参考的信息集合,可以协助模型加强了解才能、提高义务功能、加强输入连接性。此前月之暗面Kimi创始人杨植麟在采访中强调过上下文的重要性,他称,Ai-native(由AI定义产品外形)产品的终极价值在于提供个性化交互,而无损长上下文(LosslessLongContext)是达成这一目的的关键。他判别模型的微调长期来看不应存在,用户与模型的交互历史就是最好的个性化过程,而长上下文技术能更好地记录和应用这些交互历史。
另外,KV-Cache命中率至关重要,次要是由于高命中率可以提高推理效率,优化资源应用率,降低计算成本。也正基于此,KV-Cache常被称为Transformer模型推理阶段的效率核心。
选择从上述各方面提高训练效率,而非从底层模型末尾投入,是季逸超过往多年总结的教训。他称,创业上一家公司(Peak Labs)时,团队决议从头末尾为开放信息提取和语义搜索训练模型,但之后不久,OpenAI的GPT-3与Google的Flan-T5模型出现了,团队从头研发的外部模型一夜之间变得有关紧要。“讽刺的是,这些模型标志着上下文学习的末尾,以及一条全新的行进道路。”季逸超称。
基于此前教训,创业Manus后,团队不再投入基座模型研发,而是从运用开源基础模型训练端到端Agent,与基于前沿模型上下文学习才能构建Agent两个选项中停止选择。虽然Peak Labs的教训令Manus团队看法到上下文的重要性,但这并不容易,阅历过四次Agent框架调整才完成部分最优解。
但需留意的是,该策略仍存在局限,尤其在面对相似OpenAI刚发布的ChatGPT Agent时。核心缘由在于ChatGPT Agent依托OpenAI公用模型,采用端到端训练,可以更好地处理复杂义务,而Manus虽然可以提高效率,但仍依赖外部多模型组合与工程优化,在义务执行连接性与准确性上略胜一筹。
另外,在Manus转战国际市场的节点,OpenAI仰仗底层模型优势将Agent行业带入拐点,吸引更多开发者与用户至大厂平台,虽然创业公司在垂直范畴具有生活空间,但仍不可避免地面临市场份额被争夺的应战。尤其在当下Agent类产品存在同质化严重、商业形式不明、成本高企等困境时,上下文工程等方面的亮点不足以让创业公司跳脱出来,团队仍需持续优化技术策略,探求差异化发展途径。
微信编辑 | 雨林
引荐阅读
三小时搬800箱,一台机器人或可替代约1.4~2名工人!实探智元机器人落地工厂
欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/)
Powered by Discuz! X3.5