2026/3/7 20:06:36
网站建设
项目流程
地方生活门户信息网站源码,wordpress语言文件夹,智能小程序WordPress,发布网站需要多少钱文章系统介绍了大模型参数高效微调(PEFT)的九大主流方法#xff0c;包括添加派、适配器、软提示等。2021-2023年是PEFT方法的创立时期#xff0c;LoRA、P-Tuning v2、QLoRA等解决了大模型微调的根本问题。2023年后主要是在基础方法上的小改进。工程应用中#xff0c;Adapter…文章系统介绍了大模型参数高效微调(PEFT)的九大主流方法包括添加派、适配器、软提示等。2021-2023年是PEFT方法的创立时期LoRA、P-Tuning v2、QLoRA等解决了大模型微调的根本问题。2023年后主要是在基础方法上的小改进。工程应用中Adapter/LoRA已足够解决问题学术研究空间有限。让大模型从通用领域过渡到垂类领域往往需要采用大模型微调。本文将汇总大模型中参数高效微调PEFTparameter-efficient fine-tuning的主流方法以此了解当前该领域的发展现状。本文主要参考了Parameter-efficient fine-tuning in large language models: a survey of methodologies[1]这篇综述文章其中作者把各方法分成了多个类别。整体来看主要分以下六大派系。添加派(Additive)添加派的方法是将一小组可训练参数添加到预训练模型中并仔细集成到其架构中。在对特定下游任务进行微调时仅调整这些额外的组件或参数保持原始预训练的模型参数不变。适配器(Adapter)将小型适配器层插入到预先训练的模型中。一些经典的方法包括Standard Adapter由下投影、非线性激活函数和上投影层组成Hadamard Adapter采用权重向量和偏置向量将 Hadamard 乘积逐元素乘法和逐元素加法应用于自注意力输出从而产生新的自注意力输出Tiny-Attention Adapter通过在 Adapter 中嵌入一个低维、低头数的注意力机制对隐藏特征进行局部建模与动态重加权。软提示(Soft prompt)软提示是指将一系列可训练连续向量称为软提示附加到预训练语言模型的输入中。这些软提示充当附加上下文引导模型获得特定任务所需的输出。在训练过程中软提示被优化以促进模型适应新任务而模型的其余部分基本保持不变。缩放和平移(Scale and Shift)缩放和平移是指通过对模型内部激活或权重施加可学习的缩放与偏移参数实现对特征分布的轻量调整有点类似于BN层里面的缩放和平移参数。一些经典的方法包括(IA)3添加三个缩放向量来分别缩放键、值和前馈激活SSF通过线性变换修改预训练模型提取的深层特征PASTA修改了预训练模型中的特殊令牌表示重参数化派Reparameterized重参数化派主要是构建低秩可学习参数矩阵以适应特定的下游任务。训练时仅对低秩参数矩阵进行微调而在推理时将学习到的矩阵与预训练的参数相结合以确保推理速度不受影响。低秩分解Low-rank Decomposition通过低秩矩阵分解(LoRA)的方式将原本高维的权重更新压缩为少量可训练参数。这个方法估计是最有名的不必多言。LoRA 衍生方法LoRA Derivatives在LoRA基础上引入动态秩、自适应更新或结构改进机制以进一步提升参数利用效率、稳定性或任务泛化能力。以下是一些经典的改进方法DyLoRA通过在训练期间针对一系列等级训练低等级适配器LoRA块按不同等级排序使模型能够灵活并在更广泛的等级范围内表现良好AdaLoRA根据权重矩阵的重要性得分动态分配权重矩阵之间的预算其中增量更新以奇异值分解的形式参数化IncreLoRA在训练过程中根据每个模块的重要性分数增量分配可训练参数选择派Selective选择派是选择预训练模型参数的一个非常小的子集进行微调。根据参数选择的方式不同可分为非结构化选择和结构化选择。非结构化选择Unstructured Selection通过掩码、剪枝或参数重要性评估仅更新模型中对任务最关键的参数子集而不对整体结构施加约束灵活性高但可解释性相对较弱。一些经典的方法LoRAPrune利用低秩矩阵A和B的梯度来近似预训练模型权重W0中每个参数的重要性然后使用低秩矩阵A和B以迭代和渐进的方式执行结构化剪枝在保持性能的同时有效地减小模型的大小Child-tuning在微调期间仅更新参数子集称为子网络同时屏蔽后向传递中剩余参数的梯度LT-SFT根据彩票假设 (LTH) 的变体学习稀疏的实值掩码以实现零样本跨语言迁移结构化选择Structured Selection以模块、层级或特定功能单元为粒度进行参数选择性更新强调结构一致性比非结构化选择会更有解释性。比如Xattn Tuning仅更新机器翻译 Transformer 模型中的交叉注意力参数表明它可以实现与微调整个模型几乎相同的性能同时还可以实现跨语言对齐的嵌入从而减轻灾难性遗忘并实现零样本翻译功能。混合派Hybrid通过组合多种参数高效微调范式如 Adapter、Prompt、低秩分解或选择性更新在表达能力与参数效率之间取得更优平衡。换句话说就是把前面的哪些方案做了融合。量化派Quantization通过低比特表示或量化感知训练对可训练参数或权重更新过程进行压缩使超大规模模型能够在受限硬件条件下完成微调与部署。比较出名的工作是QLoRA利用 4 位 NormalFloat (NF4) 精度来量化预训练模型并通过双量化和分页优化器进行增强以防止梯度检查点内存峰值。QA-LoRA通过采用分组操作来解决量化和自适应之间的不平衡增加了低比特量化的灵活性。它在微调期间LLM 权重被量化以节省时间和内存微调后LLM 和辅助权重无缝集成到量化模型中而不会损失准确性。多任务派Multi-task上面的各方法都是为下游单任务服务多任务派就是用下游多个任务去共同学习对于方法的类型上没有大的区别基于 Adapter通过共享或融合多个任务对应的适配器模块实现跨任务知识迁移与高效复用。基于软提示Soft Prompt为不同任务分配独立或可组合的提示向量在共享主干模型的同时实现多任务适配。基于低秩分解LoRA在低秩参数空间中引入任务条件或模块化设计使模型能够在多个任务之间进行高效切换与联合训练。总结看下来大模型微调领域范式创立时期是 2021-2023 年LoRA (2021)、P-Tuning v2 (2021)、QLoRA (2023) 解决了大模型微调的根本问题如何在有限硬件上高效且不牺牲太多性能地微调模型。是到23年之后就没有大的变化基本上都是在基石基础上缝缝补补的小改进。在工程领域研究的更多的是把 QLoRA/LoRA 运行得更快、更稳定的问题。比如FlashAttention 等技术实现了训练效率的提升以及内存管理策略的优化。一句话总结如果要工程应用采用Adapter/LoRA足够解决问题如果要做学术研究可挖掘的空间不大。如何系统的学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】01.大模型风口已至月薪30K的AI岗正在批量诞生2025年大模型应用呈现爆发式增长根据工信部最新数据国内大模型相关岗位缺口达47万初级工程师平均薪资28K数据来源BOSS直聘报告70%企业存在能用模型不会调优的痛点真实案例某二本机械专业学员通过4个月系统学习成功拿到某AI医疗公司大模型优化岗offer薪资直接翻3倍02.大模型 AI 学习和面试资料1️⃣ 提示词工程把ChatGPT从玩具变成生产工具2️⃣ RAG系统让大模型精准输出行业知识3️⃣ 智能体开发用AutoGPT打造24小时数字员工熬了三个大夜整理的《AI进化工具包》送你✔️ 大厂内部LLM落地手册含58个真实案例✔️ 提示词设计模板库覆盖12大应用场景✔️ 私藏学习路径图0基础到项目实战仅需90天第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】