网站开发质量控制计划书wordpress自定义分类法
2026/1/2 0:08:53 网站建设 项目流程
网站开发质量控制计划书,wordpress自定义分类法,网络推广的主要工作内容,电子政务和网站建设工作的总结什么是大模型 概念 为了对人类语言的内在规律进行建模#xff0c;研究者们提出使用语言模型#xff08;language model#xff09;来准确预测词序列中 下一个词 或者 缺失的词 的概率。 语言模型演化的四代 统计语言模型#xff08;Statistical Language Model, SLM研究者们提出使用语言模型language model来准确预测词序列中 下一个词 或者 缺失的词 的概率。语言模型演化的四代统计语言模型Statistical Language Model, SLM使用马尔可夫假设Markov Assumption来建模语言序列的 元-gram语言模型神经语言模型Neural Language Model, NLM基于神经网络构建语言模型如循环神经网络Recurrent Neural Networks, RNN并学习上下文相关的词表示即分布式词向量也被称为词嵌入Word Embedding。代表性工作word2vec预训练语言模型Pre-trained Language Model, PLM使用大量的无标注数据预训练双向 LSTMBidirectional LSTM, biLSTM或者Transformer然后在下游任务上进行微调Fine-Tuning。代表性工作ELMo、BERT、GPT-1/2大语言模型Large Language Model, LLM基于“扩展法则”Scaling Law即通过增加模型参数或训练数据可以提升下游任务的性能同时具有小模型不具有的“涌现能力”Emergent Abilities。代表性工作GPT-3、ChatGPT、Claude、Llama构建大模型的三个阶段预训练Pretraining预训练指使用海量的数据进行模型参数的初始学习旨在为模型参数寻找到一个优质的“起点”。这一概念最初在计算机视觉领域萌芽通过在ImageNet一个大型图像数据集上的训练为模型参数奠定了坚实的基础。随后这一理念被自然语言处理NLP领域采纳word2vec开创先河利用未标注文本构建词嵌入模型ELMo、BERT及GPT-1则进一步推动了“预训练-微调”范式的普及。起初预训练技术专注于解决特定类别的下游任务例如文本分类、序列标注、序列到序列生成等传统NLP任务。OpenAI在GPT-2的研究中提出了一种创新思路——通过大规模文本数据预训练打造能够应对广泛任务的通用解决方案并在GPT-3中将这一理念扩展至前所未有的超大规模。在BERT等早期预训练模型中模型架构和训练任务呈现出多样化特征。然而随着GPT系列模型的兴起“解码器架构预测下一个词”的策略证明了其卓越效能成为了当前主流的大模型技术路线。在预训练过程中首要任务是搜集和清洗海量的文本数据确保剔除潜在的有害内容。鉴于模型的知识库几乎完全源自训练数据数据的质量与多样性对模型性能至关重要。因此获取高质、多元的数据集并对其进行严谨的预处理是打造高性能语言模型的关键步骤。当前多数开源模型的预训练均基于数T的token。例如Llama-1、Llama-2、Llama-3的预训练规模分别为1T、2T和15T。除了对数据量的苛刻要求预训练阶段对计算资源的需求也极为庞大。以Llama-1的65B参数模型为例其在2,048块A100 80GB GPU集群上进行了接近三周的训练。此外预训练过程中还涉及诸多细节诸如数据配比、学习率调度、模型行为监测等这些往往缺乏公开的最佳实践指导需要研发团队具备深厚的训练经验与故障排查能力以规避训练过程中的回溯与重复迭代节约计算资源提高训练效率。总体而言预训练不仅是一项技术挑战更是一场对数据质量、算力投入与研发智慧的综合考验。有监督微调Supervised Fine-tuning, SFT经过大规模预训练后模型已经具备较强的模型能力能够编码丰富的世界知识但是由于预训练任务形式所限这些模型更擅长于文本补全并不适合直接解决具体的任务。尽管引入了诸如上下文学习In-Context Learning, ICL等提示学习策略以增强模型的适应性但模型本身在下游任务解决上的能力仍受限。为了克服这一局限预训练后的大型语言模型往往需经历微调过程以提升其在特定任务中的表现。目前来说比较广泛使用的微调技术是“有监督微调”也叫做指令微调Instruction Tuning该方法利用成对的任务输入与预期输出数据训练模型学会以问答的形式解答问题从而解锁其任务解决潜能。经过指令微调后大语言模型能够展现出较强的指令遵循能力可以通过零样本学习的方式解决多种下游任务。然而值得注意的是指令微调并非无中生有地传授新知而是更多地扮演着催化剂的角色激活模型内在的潜在能力而非单纯地灌输信息。相较于预训练所需的海量数据指令微调所需数据量显著减少从几十万到上百万条不等的数据均可有效激发模型的通用任务解决能力甚至有研究表明少量高质量的指令数据数千至数万条亦能实现令人满意的微调效果。这不仅降低了对计算资源的依赖也提升了微调的灵活性与效率。基于人类反馈的强化学习对齐Reinforcement Learning from Human Feedback, RLHF除了提升任务的解决能力外大语言模型与人类期望、需求及价值观的对齐Alignment至关重要这对于大模型的应用具有重要的意义。OpenAI在 2022 年初发布了 InstructGPT 论文详尽阐述了如何实现语言模型与人类对齐。论文提出了基于人类反馈的强化学习对齐Reinforcement Learning from Human Feedback, RLHF通过指令微调后的强化学习提升模型的人类对齐度。RLHF的核心在于构建一个反映人类价值观的奖励模型Reward Model。这一模型的训练依赖于专家对模型多种输出的偏好排序通过偏好数据训练出的奖励模型能够有效评判模型输出的质量。目前还有很多工作试图去除复杂的强化学习算法或其他使用 SFT 方式来达到与 RLHF 相似的效果从而简化模型的对齐过程。例如直接偏好优化Direct Preference Optimization, DPO它通过与有监督微调相似的复杂度实现模型与人类对齐是一种典型的不需要强化学习的对齐算法。相比RLHFDPO不再需要在训练过程中针对大模型进行采样同时超参数的选择更加容易。最后我们以开源大模型Llama-2-Chat为例简要介绍一下其训练过程。开源大模型选择将模型开源的组织 他们秉持着促进学术交流和技术创新的理念让全球的研究者和开发者都能受益于这些模型。通过开放模型的代码和数据集他们加速了整个AI社区的发展促进了创新和技术的民主化。这一阵营的代表有Meta AI、浪潮信息等。闭源大模型保持模型闭源的公司 它们通常将模型作为核心竞争力用于提供专有服务或产品以维持商业优势。闭源模型通常伴随着专有技术和服务企业可以通过API等方式提供给客户使用而不直接公开模型的细节或代码。这种模式有助于保障公司的商业利益同时也为用户提供了稳定和安全的服务。这一阵营的代表有OpenAI、百度等。大模型时代挖掘模型能力的开发范式1. 有手就行的Prompt工程Prompt工程Prompt Engineering是指通过精心构造提示Prompt直接调教大模型解决实际问题。为了更充分地挖掘大模型的潜能出现了以下两种技术上下文学习In-Context Learning, ICL将任务说明及示例融入提示文本之中利用模型自身的归纳能力无需额外训练即可完成新任务的学习。思维链提示Chain-of-Thought, CoT引入连贯的逻辑推理链条至提示信息内显著增强了模型处理复杂问题时的解析深度与广度。2. Embedding辅助给LLM外接大脑尽管大模型具有非常出色的能力然而在实际应用场景中仍然会出现大模型无法满足我们需求的情况主要有以下几方面原因知识局限性大模型的知识来源于训练数据而这些数据主要来自于互联网上已经公开的资源对于一些实时性的或者非公开的由于大模型没有获取到相关数据这部分知识也就无法被掌握。数据安全性为了使得大模型能够具备相应的知识就需要将数据纳入到训练集进行训练。然而对于企业来说数据的安全性至关重要任何形式的数据泄露都可能对企业构成致命的威胁。大模型幻觉由于大模型是基于概率统计进行构建的其输出本质上是一系列数值运算。因此有时会出现模型“一本正经地胡说八道”的情况尤其是在大模型不具备的知识或不擅长的场景中。因此将知识提前转成Embedding向量存入知识库然后通过检索将知识作为背景信息这样就相当于给LLM外接大脑使大模型能够运用这些外部知识生成准确且符合上下文的答案同时能够减少模型幻觉的出现。3. 参数高效微调在实际应用场景中大模型还会经常出现以下问题大模型在当前任务上能力不佳如果提升其能力另外怎么使大模型学习其本身不具备的能力呢这些问题的答案是模型微调。模型微调也被称为指令微调Instruction Tuning或者有监督微调Supervised Fine-tuning, SFT首先需要构建指令训练数据然后通过有监督的方式对大模型的参数进行微调。经过模型微调后大模型能够更好地遵循和执行人类指令进而完成下游任务。然而由于大模型的参数量巨大 进行全量参数微调需要消耗非常多的算力。为了解决这一问题研究者提出了参数高效微调Parameter-efficient Fine-tuning也称为轻量化微调 Lightweight Fine-tuning这些方法通过训练极少的模型参数同时保证微调后的模型表现可以与全量微调相媲美。大模型应用开发基础知识一个完整的大模型应用包含一个客户端和一个服务端客户端在大模型应用中客户端需要接受用户请求并且能将回复返回给用户。目前客户端通常使用Gradio和Streamlit进行开发。服务端服务端的主要两种方式直接调用大模型API将请求直接发送给相应的服务商如openai讯飞星火等等待API返回大模型回复大模型本地部署 在本地GPU或者CPU上下载模型文件并基于推理框架进行部署大模型参考学习资料动手学大模型应用全栈开发课程https://www.datawhale.cn/learn/summary/242

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询