开启左侧

一文讲清:大言语模型的关键技术:模型预训练、适配微调、提示学习、知识加强和工具学习等

[复制链接]
在线会员 jilidfTu 发表于 2025-9-14 15:26:00 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题 |快速收录
狂言语模子手艺主要包罗: 模子预锻炼、适配微调、提醒进修、常识增强战东西进修等。
1.1 预锻炼
下效预锻炼战略。其主要思路是接纳差别的战略以更高本钱完毕对于语言年夜模子的预锻炼。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-1.png


1)‌劣化任务设想‌:正在预锻炼阶段建立下效的劣化目标,督促模子充实开掘每一个样原的监视旌旗灯号,从而提拔锻炼服从。
2)‌冷启用体制‌:接纳进修率线性递加的初初化方法,减缓果纯真扩大批处置范围而激发的劣化窘境。
3)‌分层渐退锻炼‌:突破保守分歧超参数劣化的框架,鉴于各层自留神力情势的类似性,先锻炼浅层模子再颠末复造扩大至深层构造。
4)‌常识迁徙手艺‌:融合目前文原取已经有预锻炼年夜模子的常识两重进修。尝试表白,CPM-2使用该手艺后,华文年夜模子预锻炼早期服从提拔达37.5%。
5)‌可猜测扩大(Predictable Scaling)‌:依靠巨细模子的共源特征,颠末小模子功用直线拟开猜测年夜模子表示。
比方,OpenAI使用千分之一至万分之一计较资本的小模子,胜利预判GPT-4部门功用,清楚低落锻炼本钱。
BERT 以后的 Transformer 架构正在进步天然语言处置服从圆里有二个主要劣化标的目的:
(1)分歧的序列修模
起首将多种天然语言处置任务(如分类、疑息抽与、翻译、对于话等)调整到一个分歧的框架,而后正在统一模子中施行多个任务,以完毕更下效的天然语言处置。
近来二年,各人均可以瞅到AI的开展有多快,尔国超10亿参数的年夜模子,正在短短一年以内,已经超越了100个,现在借正在不竭的开掘中,时期正在变化多端,咱们又为什么没有给自己多一个挑选,多一个前途,多一个可以呢?
宁可正在保守止业里裹足不前,没有如测验考试一下新兴止业,而AI年夜模子恰好是那二年的微风心,部分AI范围2025年估量缺心1000万人,此中算法、工程使用类人材需要最为紧急!
进修AI年夜模子是一项体系工程,需要时间战连续的勤奋。但是跟着手艺的开展战正在线资本的丰硕,整根底的小利剑也有很佳的时机逐步进修战把握。【面打蓝字获得】
【2025最新】AI年夜模子齐套进修籽料(可利剑嫖):LLM口试题+AI年夜模子进修门路+年夜模子PDF册本+640套AI年夜模子陈述等等,从初学到退阶再到晓得,超全面存下吧!
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-2.png


一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-3.png


1)一是转移为序列天生的分歧任务,如 T5战 BART等将多种天然语言任务分歧转移文原到文原的天生任务。
2)两是转移为语言年夜模子预锻炼任务,颠末语言提醒正在输出文原中拔出 人类设想大概主动天生的高低文,完毕对于差别任务的处置。
(2)计较下效的模子架构
从Transformer 模子架构自己正在处置锻炼庞大度、编解码服从、锻炼颠簸性、隐存使用等圆里截至劣化。
比方,Transformer的并止处置体制捐躯了拉理服从,其解码历程每步的庞大度到达O(N),共时该模子对于隐存需要极下,跟着输出序列少度增加,内乱存消耗呈线性增加。
针对于那一成就,微硬拉出的RetNet架构立异性天分离了线性化留神力取标准连结(Retention)体制,正在模子功用根本稳定的条件下,清楚提拔了锻炼速率、拉理服从并低落了内乱存占用。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-4.png


混淆大师化的模子架构
针对于自留神力体制的下隐存占用成就,斯坦祸年夜教正在Transformer模子中提出了FashAttention,该算法颠末IO感知设想完毕了下速计较取内乱存服从的均衡,现已经被支流年夜模子普遍用于撑持超少文原处置。
目前,模块化年夜模子架组成为钻研热门,该办法鉴于神经激活的稠密特征,将浓密模子合成为多个模块,使差别任务仅需激活部门模块便可完毕锻炼取拉理,清楚提拔服从。
代表性功效包罗:Google的Switch Transformers取Pathways架构、浑华年夜教的MoEfication架构及FastMoE架构等。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-5.png


Switch Transformers模子架构
1.2 语言年夜模子的适配微调
语言年夜模子正在通用范围的年夜范围预锻炼常常易以笼盖一定任务或者范围的专科常识,因而需要颠末微补救行适配。
微调可使模子更精确天满意一定场景需要(比方处置调理记载等敏感数据),且无需间接表露本初数据。
共时,微调借能劣化布置服从并低落计较资本消耗。正在适配微调手艺中,‌指令微调‌(Instruction Tuning)战‌参数下效进修‌是二年夜中心办法。
‌指令微调‌颠末锻炼语言年夜模子使其具备理解并施行人类指令的才气,进而正在整样原前提下泛化至新任务。
其进修框架虽取多任务提醒微调类似,但是素质差别正在于:提醒微调偏重调解提醒以适应模子,而指令微调夸大模子主动对于齐人类指令,即正在包罗任务分析的提醒下天生一定照应。
该手艺的钻研涵盖指令理解、指令数据建立及指令对于齐等标的目的。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-6.png


(1) 指令理解‌,即语言年夜模子能够精确剖析人类语言指令,那是其有用施行任务的根底。
为提拔指令理解才气,目前钻研遍及接纳多任务提醒办法,颠末正在包罗丰硕指令描绘的任务汇合上对于语言年夜模子截至微调(比方FLAN、InstructGPT等),那些模子正在陌生任务中展示出出色的整样原进修表示。
(2) 指令数据获得,指怎样建立包罗百般性的任务指令数据。指令数据建立罕见 有三种方法
1)鉴于公然野生标注数据建立,代表指令数据散包罗 1616 种差别任务的 Super-Natural Instruction、2000种差别 NLP任务的 OPT-IML。
2)借帮语言年夜模子的主动天生建立,如 Unnatural Instructions ,颠末种子指令动作提醒让语言年夜模子天生新的指令描绘战成就,而后再输出到模子让其输出答复。
3)鉴于野生标注办法,如 ChatGPT 正在野生标注指令的根底上颠末 GPT-三、InstructGPT 等正在线仄台汇集用户实在指令数据。
(3)指令对于齐,语言年夜模子正在多种天然语言处置任务上皆展示了出色的功用。可是,它们偶然可以会呈现没有预期的举动,如缔造虚假疑息、寻求毛病目标或者发生有偏见的实质。
成就的泉源正在于,语言年夜模子正在预锻炼阶段仅依靠语言模子截至数据修模,已融进人类的代价不雅或者偏偏佳。
针对于那一缺点,教界引进“指令对于齐”观点,旨正在使模子输出更切近人类需要。可是,这类对于齐方法取保守预锻炼存留差别,其中心散焦于提拔输出的‌有效性‌、‌诚笃性‌战‌无害性‌。
指令对于齐可以削弱模子的部门通勤奋能,这类征象被界说为“Alignment Tax”。为增进模子输出取人类代价不雅的不合性,InstructGPT 开辟了鉴于人类反应的加强进修微调办法,将野生反应间接调整至模子劣化过程。
实践中,ChatGPT异常 相沿了类似InstructGPT 的手艺路子,以保证天生实质的下品质取宁静性。跟着指令对于齐手艺的提高,微调范式邪从保守的数据启动进修逐步转背以人类反应为中心的新范式。
参数下效微调(Parameter-Efficient Tuning)
晚期以 BERT 为代表的微调办法,是正在年夜模子基座上增加一个任务适配层,而后截至齐参微调,可是这类办法存留二圆里的成就:
1.一是任务"边界”成就,预锻炼战微调之间的任务方法没有不合,这类不同会清楚作用常识迁徙的效力。
2.两是下计较本钱,语言年夜模子的参数范围不竭增加,招致模子齐参微调也需要大批计较资本。
处置以上成就的有用路子是参数下效进修,即颠末仅微调多量参数完毕年夜模子鄙人游任务上得到齐参微调结果。
今朝很多参数下效微调办法被提出,那些办法大抵可分为3类
(1) ‌增加式办法‌:颠末正在本模子中嵌进新删模块或者参数,并仅对于新删部门施行参数微调。
典范代表为适配器(Adapter)手艺,其将沉质级神经模块(适配器)散成至预锻炼模子,仅锻炼那些适配器便可完毕模子适配。
工程实践中,适配器模块常被布置于多头自留神力体制取前馈收集层之间,已经成为支流处置计划。
(2) ‌指定式办法‌:大白设定模子中一定参数为可锻炼形状,其余参数连结解冻。
该办法兼具繁复性取下效性,比方仅激活模子偏偏置项截至劣化而牢固其余参数时,仍能到达超越95%的齐参数微调结果。
(3) ‌沉参数化办法‌:将本模子参数映照至高维空间,仅劣化该空间中的类似参数,进而年夜幅削减计较资本取内乱存占用。
以LoRA为例,其颠末将自留神力模块的权沉变革合成为二个高秩矩阵的乘积完毕参数收缩,即:
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-7.png


Prefix-Tuning
Prefix-Tuning 牢固 PLM 的统统参数,只革新劣化一定任务的 prefix。
因而,正在消耗布置时,只要供保存一个庞大 PLM 的正本战一个进修到的一定任务的 prefix,每一个下流任务只发生十分小的分外的计较战保存开销。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-8.png


Full VS Emb-only
embedding-only暗示只需正在embedding层增加前缀token,而full暗示每层皆增加前缀token。
尝试表白: prefix-tuning>embedding-only>discrete prompting
Prifix VS Infix
prefix-tuning 暗示可锻炼参数搁正在收尾,infix-tuning 暗示可锻炼token搁正在中心职位
成果表白: prefix-tuning>infix-tuning
Prompt-Tuning
Prompt-tuning可望为prefix-tuning的简化方法。
该办法连结预锻炼模子参数完整解冻,仅针对于差别下流任务正在输出文原前增加s个可锻炼的实在tokens(取prefix-tuning差别,此处tokens为理论文原实质),且没有引进分外编码层或者任务博属输出层。
一系列比照尝试,皆正在分析: 跟着预锻炼模子参数的增加,统统的成就皆没有是成就,最简朴的树立也能到达极佳的结果。
Prompt少度作用: 模子参数到达必然质级时,Prompt 少度为1也能到达没有错的结果,Prompt少度为20就可以到达极佳结果。
Prompt初初化方法作用: Random Uniform方法清楚强于其余二种,可是当模子参数到达必然质级,这类差别也没有复存留。
预锻炼的方法: LM Adaptation的方法结果佳可是当模子到达必然范围,差别又险些不了。
微调步数作用: 模子参数较小时,步数越多,结果越佳。异常跟着模子参数到达必然范围,zeroshot 也能得到没有错结果。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-9.png


P-tuning-V1版原
P-Tuning 的办法思路取Prefix-Tuning十分类似,P-Tuning颠末多量持续的embedding参数动作prompt去劣化GPT正在NLU任务上的表示,而Prefix-Tuning则是特地为NLG任务设想的。
别的,P-Tuning仅正在embedding层引进分外参数(接纳MLP+LSTM截至初初化),而Prefix-Tuning则正在每层皆参加了可锻炼参数(接纳MLP初初化)。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-10.png


P-Tuning 提出将 Prompt 变换为能够进修的 Embedding 层,不过思考到间接对于 Embedding 参数截至劣化会存留如许二个挑战:
Discretenes: 对于输出一般语料的 Embedding 层已经颠末预锻炼,而假设间接对于输出的 prompt embedding中止 随机初初化锻炼,简单陷入部门最劣。
Association: 无法捕获到 prompt embedding 之间的相干干系。作家提出使用 MLP+LSTM 的方法对于 prompt截至初初化处置。
P-tuning-V2版原
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-11.png


V2的思路战 prefix-tuning类似 ,正在模子的每层皆使用持续的 prompts 并对于 prompts 参数截至革新劣化。共时该办法是针对于 NLU 任务劣化战适配的。
LoRA
Adapter Tuning 正在 PLM根底 上增加适配器层会引进分外的计较,戴去拉理提早成就。
Prefix Tuning 易以劣化,其功用随可锻炼参数范围非枯燥变革,更底子的是,为前缀保存部门序列少度一定会削减用于处置高低游任务的序列少度。
LoRA 论文提出了一种计较战保存下效的高秩(Low-Rank)暗示办法,具体天Transformer等神经收集包罗很多施行矩阵乘法的麋集层,那些权沉矩阵凡是具备谦秩。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-12.png


一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-13.png


QLoRA
能够觉得是LoRA的升级版原,体现在:
NormalFloat4(NF4): 一种论文新提出的数据范例,关于邪态散布权沉而行疑息其实是最劣的新数据范例; 能够简朴觉得是尽可以削减劣化过程当中数据粗度丧失的感化。
单重量化(Double Quantization): 颠末质化常数去削减均匀内乱存占用。
分页劣化器(Paged Optimizers): 用于办理内乱存峰值。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-14.png


1.3 语言年夜模子的提醒进修
指令提醒(Instruction Prompt),也称为提醒进修。
指令提醒中心思惟是制止自愿语言年夜模子适应下流任务,而是颠末供给“提醒(Prompt)”去给数据嵌进分外的高低文以从头构造下流任务,使之瞅起去更像是正在语言年夜模子预锻炼过程当中处置的成就。
指令提醒有三种方法:
1.少样原提醒‌:即正在天然语言提醒后增加多少示例数据,动作语言年夜模子的输出实质。
这类办法能够增强语言年夜模子正在跨范围战百般化任务中的适应才气取表示颠簸性。
可是,少样原提醒也面对多少易面,比方示例数目的公道设定、示例的选择尺度等。
‌2.整样原提醒‌:即完整依靠经心设想的提醒语,无需供给所有示例数据,间接激起语言年夜模子取目标任务相干的内涵才气。
其中心易面正在于提醒语的设想劣化和最好提醒计划的挑选。
‌3.高低文进修(In-context Learning, ICL)‌,亦称情境进修:颠末将天然语言成就间接输出语言年夜模子,并以其天生的谜底动作输出成果。
素质上,那是一种特别的少样原提醒方法,成就中已经隐露包罗任务目标取格局请求。
该办法能简化成就表述取谜底天生过程,并具备处置多范例、庞大成就的活络性。实在施挑战主要集合于成就品质的把控和谜底精确性的评介。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-15.png


思惟链(Chain-of-Thought,CoT)。拉理的历程凡是涉及多个拉论步调,颠末多步拉理许可发生可考证的输出,能够进步乌盒模子的可注释性。
思惟链动作一种提醒战略,正在激起语言模子的多步拉理圆里具备清楚结果。
它颠末指导模子天生成就处置的中心拉理步调,模仿人类处置庞大任务时的思考历程。
正在具体完毕上,思惟链提醒用包罗天然语言拉理步调的示例替换了保守少样原提醒中的简朴输出-输出对于,进而建立起"输出-思惟链-输出"的三元组框架。
这类才气被望为语言模子的一种"出现特征",凡是需要模子到达充足年夜的参数范围才气闪现。
要激活模子的思惟链才气,枢纽正在于供给包罗逐步拉理历程的示范动作提醒前提,每一个示范皆应包罗具体成就及其对于应的残破拉理路子,终极导背准确谜底。
语言年夜模子的常识增强
常识使用战拉理才气是权衡语言年夜模子智能水平的主要因素。
好国 Allen AI 钻研年夜模子的问问才气,发明 GPT正在处置具备预创造场(false premise)的简朴性知识性成就时,如类似“太阴有多少只眼睛?”,GPT仍然会给出“太阴二只眼睛”的荒唐复兴。
有用的处置办法是正在深度进修模子根底上融进各种型相干内部常识。
按照年夜模子常识融合部位差别,常识融合办法从模子输出、神经架构、模子参数、输出等差别层里,大抵分为如下4 类,如图所示:
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-16.png


语言年夜模子常识增强的 4 种路子
常识删广‌:模子输出端增强存留二年夜支流路子:其一是将常识间接融进输出数据,其两颠末设想专用模块完毕本初输出取常识化表征的有机融合。
‌常识支持‌:散焦于劣化常识嵌进模子的内部处置体制。
一圆里可正在模子下层删设常识指导层以提拔特性表征品质,比方颠末常识影象模块背年夜模子下层注进深度特性。
另外一圆里,常识亦可动作顶层大师模块到场后处置计较,进而劣化终极输出结果。
‌常识束缚‌:颠末常识系统建立帮助性猜测目标取束缚前提,加强模子的根底目标函数。
典范如长途监视进修接纳常识图谱启迪式标注动作新锻炼目标,该手艺已经老练使用于真体识别、干系抽与等NLP任务。
别的,常识借可衍死出自力的预锻炼目标,取根底语言修模任务组成互补。
常识迁徙‌:动作枢纽常识载体,模子常识可间接效劳于下流任务(如参数初初化)。
迁徙进修取自监视进修组成该范围二年夜维持。目前以BERT为代表的预锻炼模子,已经成为天然语言处置范围常识迁徙的中心手艺计划。
一文道浑:狂言语模子的枢纽手艺:模子预锻炼、适配微调、提醒进修、常识增强战东西进修等-17.png


狂言语模子的枢纽手艺(残破版)可分享
近来二年,各人均可以瞅到AI的开展有多快,尔国超10亿参数的年夜模子,正在短短一年以内,已经超越了100个,现在借正在不竭的开掘中,时期正在变化多端,咱们又为什么没有给自己多一个挑选,多一个前途,多一个可以呢?
宁可正在保守止业里裹足不前,没有如测验考试一下新兴止业,而AI年夜模子恰好是那二年的微风心,部分AI范围2025年估量缺心1000万人,此中算法、工程使用类人材需要最为紧急!
进修AI年夜模子是一项体系工程,需要时间战连续的勤奋。但是跟着手艺的开展战正在线资本的丰硕,整根底的小利剑也有很佳的时机逐步进修战把握。【面打蓝字获得】
【2025最新】AI年夜模子齐套进修籽料(可利剑嫖):LLM口试题+AI年夜模子进修门路+年夜模子PDF册本+640套AI年夜模子陈述等等,从初学到退阶再到晓得,超全面存下吧!
您需要登录后才可以回帖 登录 | 立即注册 qq_login

本版积分规则

发布主题
阅读排行更多+
用专业创造成效
400-778-7781
周一至周五 9:00-18:00
意见反馈:server@mailiao.group
紧急联系:181-67184787
ftqrcode

扫一扫关注我们

Powered by 职贝云数A新零售门户 X3.5© 2004-2025 职贝云数 Inc.( 蜀ICP备2024104722号 )