职贝云数AI新零售门户

标题: 让manus从零到一的上下文工程到底是什么?一文起底 [打印本页]

作者: Ph55Ox    时间: 昨天 12:44
标题: 让manus从零到一的上下文工程到底是什么?一文起底
(, 下载次数: 0)

导读 在人工智能的宏大叙事中,大型言语模型(LLMs)无疑是近年来最引人注目的技术打破之一。它们仰仗惊人的文本生成、了解、推理乃至代码编写才能,正在以史无前例的速度重塑各行各业的消费力格局。从最后的简单问答系统,到如今可以执行复杂义务的智能代理(AI Agent),LLMs 的每一次飞跃都伴随着与之交互方式的深入变革。
最后,为了有效驾驭这些弱小的模型,研讨者和开发者将目光聚焦于“提示词工程”(Prompt Engineering),经过精心构造输入指令,试图引导模型输入更精准、更符合预期的结果。这门“艺术与迷信”在短工夫内成为抢手技能,催生了大量关于如何“调教”LLM 的技巧和方法。但是,随着 LLMs 才能的日益加强和运用场景的不断复杂化,单一的提示词优化已显得捉襟见肘。当 AI 系统需求处理多轮对话、整合外部知识、调用多种工具,并自主完成一系列复杂义务时,一个更具系统性、更强调动态信息管理的全新范式——“上下文工程”(Context Engineering)应运而生。这一概念由 Andrej Karpathy 等业界首领明白提出并大力倡导,迅速成为 AI 范畴的新共识。本文旨在深化分析从提示词工程到上下文工程的演进历程,阐明这一转变对大型言语模型及其运用生态产生的深远影响,并对将来的发展趋向停止前瞻性展望。次要内容包括以下几个部分:
1. 研讨范围与目的

2. 技术回顾

3. 现状分析

4. 将来展望

5. 结论

文章校正|DataFun志愿者 毕超、陈思永、Taylor
材料整理|DataFun志愿者 陈思永出品社区|DataFun

01

研讨范围与目的

本研讨旨在对从提示词工程到上下文工程的演进途径停止系统性梳理与深化分析,本文将围绕以下几个核心目的展开讨论:

02

技术回顾

1. 发展历程:从简单提示到复杂系统

(, 下载次数: 0)

大型言语模型(LLMs)的崛起,标志着人机交互进入了一个全新的时代。但是,要充分释放这些模型的宏大潜力,仅仅依托其内在的言语了解和生成才能是远远不够的。与 LLMs 的有效交互方式,好像其本身架构一样,阅历了一个从简单到复杂、从静态到动态的演进过程。

最后,与 LLMs 的交互是相对直观和直接的。用户经过输入一段简短的文本指令,即“提示词”(Prompt),来引导模型完成特定义务。例如,向模型发问“天空为什么是蓝色的?”,模型会基于其训练数据给出相应的解释。这种早期的交互形式,虽然简约高效,但其局限性也不言而喻:对于复杂义务,模型往往难以了解深层意图,或生成不尽善尽美的结果。此时,提示词更多地被视为一种“触发器”,而非精细的“控制器”。

随着 LLMs 规模的扩展和才能的加强,人们末尾看法到,经过优化提示词的构造,可以分明提升模型的表现。于是,提示词工程(Prompt Engineering)作为一门新兴的学科应运而生。它不再仅仅是简单地输入成绩,而是一个系统化、迭代式的过程,触及对提示词停止精心设计、反复测试和持续优化。这一阶段涌现出多种创新的提示技巧,极大地拓展了 LLMs 的运用边界:

(, 下载次数: 0)

(, 下载次数: 0)

由 Google 研讨人员在 2022 年提出,CoT 提示经过引导 LLMs 生成一系列中间推理步骤,来处理多步复杂成绩。例如,在处理数学运用题时,不再是直接要求模型给出答案,而是要求它“一步一步思索”,展现其解题过程。这种方法分明提升了模型在数学、逻辑推理和常识问答等义务上的表现,使得模型的推理过程愈加透明和可控。CoT 的成功揭示了,经过结构化提示,可以有效激发 LLMs 的复杂推理才能。

提示词工程的兴起,使得 LLMs 的运用从简单的文本生成和分类,扩展到更复杂的问答、摘要、翻译和代码生成等范畴。它强调经过精巧的“指令”来“调教”模型,使其更好地了解人类意图。但是,当 AI 运用末尾向更具自主性、可以执行多步骤复杂义务的“AI Agent”方向发展时,提示词工程的局限性也逐渐显现。一个真正的 AI Agent 需求处理的不只仅是用户当前的单次指令,还包括长期的对话历史、不断更新的外部知识、可调用的各种工具、以及在义务执行过程中产生的中间形态信息。这些多元且动态的信息共同构成了模型了解和执行义务的“上下文”。仅仅优化单次交互的提示词,已无法满足 Agent 对复杂、动态上下文的精细化管理需求。

正是在这样的背景下,上下文工程(Context Engineering)的概念应运而生,并迅速成为 AI 范畴的新焦点。它超越了单一提示词的范畴,被定义为一门设计和构建动态系统的学科,其核心目的是在正确的工夫、以正确的格式,为大言语模型提供恰当的信息和工具,使其可以高效、准确地完成义务。上下文工程的出现,标志着 LLM 运用开发从“单次交互优化”向“系统级智能构建”的根本性转变。它强调的不再是孤立的提示词,而是一个可以动态生成、挑选、紧缩和隔离上下文的残缺、智能化的信息流管理系统。这使得 LLMs 可以处理更复杂、更真实的业务场景,从被动的文本生成工具,演化为可以了解、推理、规划和执行义务的自主智能体。

2. 重要事情:里程碑与打破

从提示词工程到上下文工程的演进,并非一挥而就,而是由一系列关键的研讨打破和实际创新共同推进的。这些里程碑事情不只改变了我们与 LLMs 交互的方式,也深入影响了 AI 运用的开发范式:



而称之为艺术,则源于对人类心思与 LLM 行为之间巧妙互动的直觉把握。这一提法迅速引发了行业共识,标志着 AI 运用开发进入了更注重系统性、动态性和全体性的新阶段,将 AI Agent 的构建推向了新的高度。

03

现状分析

1. 技术现状:多维度的上下文管理体系

(, 下载次数: 0)

当前,上下文工程已不再是一个模糊的概念,而是发展成为一个成熟且多维度、系统化的技术体系。其核心目的是为大型言语模型提供最优化、最片面、最相关的输入信息,从而最大限制地激发其潜能,使其可以高效、准确地完成复杂义务。这一体系涵盖了以下几个关键组成部分和主流技术方案:

(1)指令与系统提示词(Instructions / System Prompts): 这是上下文工程的基础和终点,定义了模型在特定运用场景下的全体行为形式和约束。系统提示词通常包含:

(2)用户提示词(User Prompts): 这是用户直接向模型提出的即时义务或成绩。上下文工程需求确保用户提示词可以与系统提示词、记忆、工具等其他上下文信息无缝结合,构成一个残缺且连接的输入流。这意味着系统需求智能地将用户输入嵌入到更宏大的上下文框架中,而非简单地拼接。

(3)短期记忆与对话历史(Short-term Memory / Chat History): 为了完成多轮对话的连接性,模型需求“记住”当前对话的上下文。这通常经过将用户和模型的历史对话内容(包括之前的发问和回答)作为当前输入的一部分来完成。有效的短期记忆管理可以使对话更自然、流利,避免模型反复发问或遗漏关键背景信息。常见的策略包括:

(4)长期记忆(Long-term Memory): 短期记忆的局限性在于无法跨越会话或长工夫保留信息。为了让模型具有更持久的“记忆”和个性化才能,长期记忆机制被引入。这包括存储用户偏好、历史项目摘要、特定理想、个人材料等。长期记忆通常经过以下方式完成:

(5)检索加强生成(Retrieval-Augmented Generation, RAG):它允许 LLMs 在生成回答时,从外部的知识源(如企业外部文档、实时旧事、专业数据库、网页内容)中检索相关信息,并将其作为生成回答的根据。这处理了 LLMs 知识时效性不足、容易产生“幻觉”以及缺乏范畴专业知识的成绩,分明提升了模型回答的准确性、牢靠性和威望性。RAG 的完成触及复杂的流程,包括:

(6)工具调用(Tool Usage / Function Calling): LLMs 经过调用外部工具来扩展其才能,执行特定义务或获取实时信息,从而超越其纯文本生成的才能。这些工具可以是:

(7)结构化输入(Structured Output): 为了方便下游系统对 LLMs 输入的程序化处理,上下文工程通常会明白定义模型输入的格式。例如,要求模型以 JSON、XML、YAML 或特定的 Markdown 格式输入。这确保了模型输入的可解析性和可用性,是构建复杂 AI 运用的重要组成部分,尤其是在自动化工作流和系统集成中。

(8)上下文管理策略: 除了上述组成部分,上下文工程还包括一系列精妙的管理策略,以应对 LLMs 的固有局限性(如上下文窗口限制)和复杂义务的需求:

这些技术的综合运用,使得 LLMs 不再是孤立的文本生成器,而是可以与外部世界停止深度交互、持续学习和自我顺应的智能系统。上下文工程是构建下一代 AI 运用,特别是智能 Agent 的核心基石。

2. 运用现状:从被动助手到自动智能 Agent

上下文工程的飞速发展,极大地拓宽了大型言语模型(LLMs)的运用边界,使其从最后的被动问答助手,逐渐演化为可以自主规划、执行复杂义务的自动智能代理(AI Agent)。这种转变正在深入影响着多个行业和范畴:

(1)智能客服与虚拟助手: 在客户服务范畴,LLMs 结合上下文工程可以提供史无前例的个性化和高效服务。经过长期记忆存储用户的历史交互记录、偏好设置和个人材料,虚拟助手可以了解用户的深层需求,提供定制化的处理方案。结合 RAG 技术,它们可以从海量的企业知识库、产品手册和 FAQ 中疾速检索准确信息,回答专业性成绩。同时,经过工具调用,虚拟助手可以直接执行操作,如查询订单形态、修正预订、处理退换货等,从而完成从信息提供到成绩处理的全流程服务,分明提升客户称心度和运营效率。

(2)代码生成与辅助编程: 编码 Agent 是上下文工程最成功的运用范例之一。它们可以深化了解开发者的意图,经过 RAG 检索相关的代码库、API 文档、最佳实际和历史项目阅历。应用草稿板记录开发计划和中间步骤,并经过工具调用(如代码解释器、调试器、版本控制系统)停止代码生成、测试、重构和错误诊断。例如,Cursor 和 Windsurf 等工具经过管理代码上下文、文件结构和用户编码习气,为开发者提供智能的代码补全、实时错误提示和自动化重构建议,极大地提升了开发效率和代码质量。或者应用 LangChain Agent 调用本地 REPL、Git 操作工具,完成文件级别的上下文管理。

(3)内容创作与营销: 在内容创作和数字营销范畴,上下文工程使得 LLMs 可以生成更具针对性、更吸引目的受众的内容。经过提供详细的品牌指南、目的受众画像、市场趋向数据、历史营销活动效果以及竞争对手分析等上下文信息,模型可以生成符合品牌调性、具有高度原创性和市场吸引力的文案、文章、社交媒体内容、广告语甚至短视频脚本。这种才能不只提高了内容消费效率,也使得营销内容更具策略性和有效性。

(4)金融分析与决策支持: 金融范畴的 AI Agent 可以处理海量且实时性要求极高的数据。它们应用 RAG 技术从全球旧事、市场报告、公司财报、经济目的等多元数据源中检索最新信息。结合工具调用,Agent 可以执行复杂的金融模型计算、数据可视化、风险评价和投资组合优化。经过长期记忆存储历史买卖数据的合规审计数据和分析师的专业知识,为金融专业人士提供精准的决策支持,辅助停止市场预测、风险管理和投资策略制定。

(5)教育与个性化学习: 个性化学习平台是上下文工程的另一个重要运用方向。AI Agent 可以作为智能导师,经过长期记忆记录先生的学习进度、知识掌握状况、学习风格和偏好。结合 RAG 技术,它们可以根据先生的详细成绩和学习阶段,提供定制化的教学材料、解释、习题和反馈。经过工具调用,Agent 可以模拟实验、停止互动式练习,甚至根据先生的表现动态调整学习途径,从而完成更高效、更具吸引力的个性化学习体验。

局限性:

虽然上下文工程获得了令人注目的成就,但其在实践运用中仍面临诸多应战和局限性,这些成绩也构成了将来研讨和发展的重点:


这些成绩共同构成了上下文工程进一步发展和普及的瓶颈,也明晰地指明了将来研讨和创新的重点方向。

04

将来展望

1. 发展趋向:迈向更智能、更自主的 AI Agent

上下文工程作为驱动大型言语模型向更高级智能演进的核心技术,其将来发展将围绕以下几个关键趋向展开,旨在构建愈加智能、自主、牢靠且普惠的 AI Agent 系统:

(1)更深层次的上下文感知与动态自顺应管理: 将来的上下文工程将超越当前基于规则或预设策略的形式,完成真正意义上的“上下文感知”。这意味着 AI Agent 将可以自主判别当前义务的复杂性、范畴特性和用户意图,并据此动态地调整上下文的检索、挑选、紧缩和整合策略。例如,在处理法律咨询时,系统会自动加载法律条文和判例;在停止创意写作时,则会侧重于风格和情感的上下文。这种自顺应才能将使 Agent 在各种复杂场景下表现出更高的灵敏性和鲁棒性。

(2)多模态上下文的无缝深度交融: 随着多模态大模型的疾速发展,文本、图像、音频、视频、甚至触觉和传感器数据等多种模态的上下文信息可探求更深层次、更无缝的交融。将来的上下文工程将不只可以处理单一模态的信息,更将可以了解和应用跨模态的语义关联和互补性。例如,经过分析视频中的肢体言语和语音语调来补充文本对话的情感信息,或根据用户提供的图片自动生成相关描画并停止后续交互。这将使得 AI Agent 可以更片面地感知世界,提供更丰富、更自然的交互体验。

(3)分布式或多 Agent 上下文协同: 多 Agent 系统将成为构建复杂 AI 运用的主流范式。将来的上下文工程将愈加关注如何优化不同 Agent 之间的协同机制,完成高效的信息共享和义务分工。每个 Agent 能够拥有其专属的、隔离的上下文,但同时又可以经过智能的通讯协议和共享记忆机制,在需求时停止上下文的传递和整合。这种分布式上下文管理将有助于处理单一 Agent 上下文窗口限制的成绩,并提升全体系统的可扩展性和并行处理才能。

(4)自主学习与自我优化的上下文管理: 上下文工程将融入更先进的自主学习和自我优化机制。AI Agent 需结合模拟环境或离线日志停止预训练,从每一次交互、每一次义务执行中学习,自动调整和优化其上下文管理策略。例如,经过强化学习,Agent 可以学习在何种状况下检索外部知识最有效,或者如何更高效地紧缩历史对话。这种自我迭代和优化才能将分明减少人工干涉,提升系统的长期功能和顺应性。

(5)可解释性、可控性与透明度的片面提升: 为了满足高牢靠性、高风险运用场景的需求,将来的上下文工程将努力于提升系统的可解释性、可控性和透明度。研讨将探求如何可视化上下文的活动途径、模型对不同上下文信息的权重分配,以及其决策过程中的关键推理步骤。同时,将提供更精细、更直观的控制接口,允许开发者和用户对上下文管理停止干涉、修正和调试,从而加强用户对 AI Agent 的信任和决计。

(6)边缘计算与隐私保护的深度交融: 随着 AI 运用向边缘设备(如智能手机、物联网设备)的扩展,如何在资源受限的环境下高效管理上下文,以及如何在本地停止敏感数据的处理以最大程度地保护用户隐私,将成为重要的研讨方向。联邦学习、差分隐私、安全多方计算等隐私加强技术将与上下文工程深度交融,确保 AI 在提供智能服务的同时,严厉遵守数据隐私和安全法规。

(7)朝向高度模块化、范畴有关的 Agent 框架演进: 最终目的是构建可以处理各种范畴、各种义务的通用 AI Agent,并为此开发普适性的上下文管理框架。这个框架将具有高度的笼统性和灵敏性,可以顺应不同行业、不同运用场景的上下文需求,完成 AI 才能的广泛赋能,推进通用人工智能(AGI)的完成。

2. 潜在处理方案:技术创新与范式转变

为了应对当前上下文工程面临的应战并完成上述将来发展趋向,以下潜在处理方案和技术创新将发挥关键作用:

(1)更高效的上下文表示与紧缩算法:

(2)自顺应 RAG 与多源信息交融:

(3)强化学习与元学习在上下文管理中的运用:

策略学习: 应用强化学习(RL)让 AI Agent 经过与环境的交互和试错,自主学习最优的上下文管理策略,例如在何时停止记忆更新、何时调用工具、如何平衡信息量与 Token 耗费等。这使得 Agent 可以根据实践义务反馈停止自我优化。

元学习(Meta-learning): 协助模型“学会学习”上下文管理,使其可以疾速顺应新的义务和范畴,而无需从头末尾训练。例如,经过元学习,Agent 可以疾速掌握在新范畴中如何构建有效的知识图谱或如何设计 RAG 的检索流程。

(4)基于知识图谱的上下文构建与推理:

(5)模块化、可插拔与可配置的 Agent 架构:

(6)人机协作的上下文优化与交互式调试:

(7)安全与隐私加强技术在上下文工程中的集成:

3. 行业影响:重塑 AI 运用开发与人机交互

上下文工程的成熟与普及,将对人工智能行业产生革命性的影响,其影响范围将远超技术本身,触及产业结构、商业形式乃至社会伦理的深层变革:

(1)AI 运用开发范式的根本性转变:

(2)人机交互形式的革命性晋级:

(3)数据价值的重新定义与重估: 上下文工程对外部知识和记忆的深度依赖,将使得高质量、结构化、实时更新的数据变得史无前例的重要。企业将愈加注重数据的搜集、清洗、标注、管理和管理,由于数据将直接决议 AI Agent 的智能程度和运用效果。这将催生新的数据服务和数据生态系统,释放数据的潜在价值。

05

结论

回顾从提示词工程到上下文工程的演进历程,我们明晰地看到大型言语模型(LLMs)从“指令执行器”向“智能 Agent”的深入转变。最后,提示词工程经过精心设计的单一指令,极大地提升了 LLMs 的即时呼应才能和义务完成精度。但是,随着 AI 运用场景的日益复杂化和对自主智能的需求增长,单一提示词的局限性逐渐显现。正是在这一背景下,上下文工程应运而生,它超越了简单的指令范畴,构建了一个动态、多维度、系统化的信息管理体系。这一体系涵盖了指令、短期与长期记忆、检索加强生成(RAG)、工具调用以及结构化输入等多个关键组成部分,使得 LLMs 可以了解并应用更广泛的背景知识、历史信息和外部工具,从而完成更复杂、更自主、更接近人类智能的义务执行。

上下文工程将朝着更智能的策略择优演进与动态自顺应管理、多模态上下文的无缝深度交融、Agent 系统的协同智能与分布式上下文、以及自主学习与自我优化的方向发展。上下文工程不只是大型言语模型技术演进的必然趋向,更是通往通用人工智能(AGI)的关键一步。
参考文献:

(, 下载次数: 0)

(, 下载次数: 0)

往期引荐

矩阵来源亮相DA数智大会,解读多模态大模型驱动的数据处理新方法

AI教父杨立昆,最牛马的打工人

Manus 创始人手把手拆解:如何系统性打造 AI Agent 的上下文工程?

小扎豪赌AI:Meta靠千亿GPU“抢人”,放言不戴智能眼镜将成“认知残障”

独家揭秘:阿里国际藏了10万亿级数据黑科技,数据合成+分布式魔法,让东南亚小语种妙手回春!

Scale AI王亚历山大:华裔商业精英的“自我东方主义”

OpenAI的“Manus”:ChatGPT智能体正式发布

Elastic亮相DA数智大会,揭秘如何运用ES停止向量搜索及创建RAG运用

黄仁勋交流会15000字实录:谈中美芯片、H20、CUDA兼容,信息量超大

Meta挖到OpenAI大动脉,思想链发明者JasonWei 研讨成果清点

(, 下载次数: 0)

点个在看你最好看

SPRING HAS ARRIVED






欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) Powered by Discuz! X3.5