织梦生成手机网站软件开发模型是对软件开发过程的一种规范描述
2026/1/21 7:44:54 网站建设 项目流程
织梦生成手机网站,软件开发模型是对软件开发过程的一种规范描述,上海网站建设渠道,网站的域名和ip地址如何重新解析文章介绍了大模型微调的概念、方法和实践流程。微调是对预训练模型的局部调整#xff0c;成本远低于训练新模型。详细说明了微调步骤#xff1a;准备数据、训练、评估和使用#xff0c;强调数据准备的重要性。以LLaMa Factory为例#xff0c;介绍如何通过图形界面进行模型微…文章介绍了大模型微调的概念、方法和实践流程。微调是对预训练模型的局部调整成本远低于训练新模型。详细说明了微调步骤准备数据、训练、评估和使用强调数据准备的重要性。以LLaMa Factory为例介绍如何通过图形界面进行模型微调包括数据格式和参数配置。最后讲解如何将微调后的模型通过GGUF格式转换在Ollama中运行完成整个微调流程适合初学者学习和收藏。一、什么是模型微调模型微调顾名思义就是对模型微微做一些调整。为什么要做微调呢如果可以的话每个公司都想拥有一个属于自己的大模型。但是现实比较残酷训练一个大模型需要花太多的钱。按照一些大公司的说法一个千亿参数的大模型训练一次的成本大约需要几百万美元。这显然就超过一个普通公司承受的范围。虽然我们无法训练一个属于自己的大模型但一个好消息是我们可以做模型微调。大模型是构建于神经网络基础之上的神经网络可以理解成一个一个的神经元构建的网络。训练模型就是在调整神经元之间的连接方式。一次完整的训练就相当于把所有的神经元连接都调整一遍这个计算规模相当之大是我们无法承受的。所谓微调就是把一个训练好的模型中的一部分连接重新调整。因为只做了一部分的调整所以规模就要小得多训练成本也就要小得多。前面说过RAG 和模型微调可以解决同样的问题从本质上说就是把核心业务数据放在提示词里还是放在模型里。两种做法各有优劣。放到提示词里优势就是做法比较简单但其问题的关键在于能否取到恰当的数据。如果不能取到恰当的数据就可能会出现“幻觉”问题也就是大模型会一本正经地胡说八道。放到模型里优势是数据准确性会提高但前提条件是在训练的时候要准备高质量的数据否则就是“垃圾进垃圾出”了而微调好一个模型并不是一件很容易的事情。在工程实践中二者往往是结合使用的。模型微调不是时刻在进行所以一些团队的做法是用 RAG 的方式提取新的业务数据积累到一定阶段用这些数据进行模型微调把这些数据内置到模型中再把新模型替换到业务系统中。这样一来既保证数据的新鲜又保证了基本的服务质量。二、怎样微调模型模型微调需要我们先选定一个模型。如果选定的模型是像 OpenAI 这样的闭源模型就需要使用其对应的模型微调服务。不过使用这种服务也就意味着要把数据提供出去。所以很多团队的实际做法是基于开源模型的微调。具体的模型微调通常分成几个步骤准备训练数据训练模型评估结果使用模型这其中最耗时耗力的应该是准备数据了。首先微调大模型需要多准备一些数据数据量过少可能看上去完全不起作用。毕竟大模型那么多参数如果只改动几个占比太低就和没改动效果差不多。其次数据也要精心挑选一下还是那句话垃圾进垃圾出。所以这个过程不是技术活而是一个体力活。什么数据是好数据最好由一个懂业务的人说了算。顺便说一下因为准备数据耗时耗力有人把一些整理好的数据开源了出来Hugging Face 上有大量这种数据集。如果站在学习的角度我们可以把这些数据集拿过来直接用。我们知道了要准备数据但数据格式是什么样的呢这取决于模型微调的具体方式比如OpenAI 的模型微调需要把数据准备成下面这样{messages:[{role:system,content:Marv is a factual chatbot that is also sarcastic.},{role:user,content:Whats the capital of France?},{role:assistant,content:Paris, as if everyone doesnt know that already.}]}{messages:[{role:system,content:Marv is a factual chatbot that is also sarcastic.},{role:user,content:Who wrote Romeo and Juliet?},{role:assistant,content:Oh, just some guy named William Shakespeare. Ever heard of him?}]}{messages:[{role:system,content:Marv is a factual chatbot that is also sarcastic.},{role:user,content:How far is the Moon from Earth?},{role:assistant,content:Around 384,400 kilometers. Give or take a few, like that really matters.}]}接下来我们就以 LLaMA Factory 为例具体看一下模型微调的过程。三、使用 LLaMa Factory 微调模型LLaMA Factory 是这样自我介绍的它是一个简单易用且高效的大型语言模型Large Language Model训练与微调平台。它当然有很多优点比如支持很多不同的模型、支持很多训练方法而且效率很高。如果你初次接触模型微调它更真实的优点是能够在本地运行还有一个图形化的界面。使用 LLaMa Factory 需要先把它的代码 clone 下来。git clone https://github.com/hiyouga/LLaMA-Factory.git然后就是安装相应的依赖。为了不把现有的 Python 环境搞乱我们还可以创建一个虚拟环境。cdLLaMA-Factory conda create -n llama-factorypython3.12conda activate llama-factory pipinstall-e.[torch,metrics]安装依赖之后我们就可以运行下面的命令判断安装是否成功。llamafactory-cli version接着我们需要先准备一下训练数据。LlaMA Factory 支持 alpaca 格式和 sharegpt 格式它们实际上都是 JSON 的格式。下面是一个 alpaca 格式的示例[{instruction:输入三支篮球队的名称并生成一个适当的口号。,input:输入俄克拉荷马城雷霆队芝加哥公牛队布鲁克林网队。,output:输出\雷霆公牛和网队各显神通角逐群雄!\}]接下来是 sharegpt 格式的示例[{conversations:[{from:human,value:你能解释一下算法分析中的大O记法概念吗},{from:gpt,value:是的大O表示法是一种描述算法性能随输入数据大小增加的方法。它用于估计算法在最坏情况下的时间复杂度或空间复杂度。大O中的“O”代表“数量级”这意味着随着输入大小的增加算法所需的操作数以一定的速率增长。\n\n例如如果我们有一个需要n步才能解决大小为n的问题的算法那么时间复杂度可以表示为O(n)这意味着操作数随着输入大小线性增长。如果我们有一个需要n^2步才能解决大小为n的问题的算法那么时间复杂度可以表示为O(n^2)这意味着操作数随着输入大小二次方增长。\n\n还有其他几种大O表示法如O(log n)、O(n log n)、O(2^n)等它们代表了随着输入大小增加的不同操作数增长速率。通过分析算法的大O表示法我们可以比较不同算法的性能并选择给定问题最有效的算法。\n\n您是否有关于大O表示法或算法分析的特定问题}],tools:[]}]从这两个示例我们不难看出它们就是一个对话的结构相当于一个人问了一个问题大模型给出了一个回答。从简单直接的角度sharegpt 格式更符合我们常规理解的会话形式如果你是初次尝试不妨使用这个格式。确定了数据格式我们需要把数据改写成这个格式把它们存到一个文件里。然后把这个文件放到 LLaMa Factory 的 data 目录里。接着在 dataset_info.json 里加上这个文件的描述。dataset_info.json 相当于是一个元文件用来描述在 LLaMa Factory 界面上可以看到的数据是什么样的。下面是一个例子我们指定了文件的名称和相应的文件格式dreamhead:{file_name:dreamhead.json,formatting:sharegpt,columns:{messages:conversations,system:system,tools:tools}}准备好数据我们就可以开始训练了。前面说了LLaMa Factory 对新手最友好的地方是它提供了图形化界面我们可以通过下面的命令启动图形化界面。llamafactory-cli webuiLLaMa Factory 的图形界面如下所示。虽然说是一个图形界面但这个界面上的参数之多已经达到了眼花缭乱的地步。不过我们并不需要一上来就把所有的参数搞清楚要微调自己的模型最核心的几个参数是模型名称也就是我们用于微调的基础模型。数据集在这里可以找到前面准备好的数据。除此之外我们还需要知道输出目录毕竟我们还是要结果的。做好了最基础的配置我们只要点击“开始”就可以开始执行训练了训练的时间会因为配置的差异有所不同。如果一切顺利我们只需要等待这个过程结束。这些界面上的各种配置最终都会以命令行的方式在后台运行。点击“预览命令”我们就可以看到在后台要执行的命令。我们完全可以自己在命令行里执行这个命令进行训练。当训练结束我们可以在输出目录中找到微调之后的模型。有了模型我们怎么把它用起来呢最简单的方案就是把它接入到 Ollama 中。四、在 Ollama 中运行微调模型怎样在 Ollama 中接入一个新模型呢我们需要给 Ollama 提供一份模型描述文件也就是它的 Modelfile。在 Ollama 上运行的每个模型都有自己的 Modelfile我们可以通过命令查看它们的 Modelfile比如ollama show qwen2.5:0.5b --modelfile下面是一个 Modelfile 的示例FROM base modelADAPTER /path/to/model/adapter_model.gguf在这个 Modelfile 里FROM 指向基础模型而 ADAPTER 指向了微调过的文件。不过你可能会发现在生成模型的目录下并没有一个 gguf 文件。GGUF 是一种模型文件的存储格式它也是 Ollama 支持的文件格式。坏消息是我们微调的模型并不是以这种格式存储的好消息是我们可以把自己的模型转换成 GGUF。在微调过程中我们采用了缺省的 LoRALow-Rank Adaptation这是一种微调模型的技术。llama.cpp这个开源项目就提供了一个转换程序可以将 LoRA 的结果转换成 GGUF 格式。这个转换程序是一个单独的 Python 程序我们可以在本地执行它其主要的依赖就是 transformers这个库。安装好依赖之后我们就执行这个转换程序得到相应的 GGUF 文件。python convert_lora_to_gguf.py /path/to/model配置好相应的 Modelfile我们就可以在 Ollama 中创建一个自己的模型了。ollama create your-model-name -f /path/to/Modelfile如果一切顺利你就得到了一个可以在 Ollama 中运行的模型然后我们就像运行一个普通的模型一样运行它。ollama run your-model-name好你现在可以测试你的模型了评估微调之后大模型的效果如果觉得不理想就需要回到前面重新来过。正如上一讲所说一个模型接入了 Ollama它就能接入到 One-API 上而接入了大模型代理我们就可以在项目中访问它了。这样我们就完成了一个完整的微调流程。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询