2026/2/17 0:30:55
网站建设
项目流程
企业网站的域名是该企业的,网站内容栏目,国家建设环保局网站,小米手机如何做游戏视频网站这篇文章系统介绍了大语言模型的完整开发流程#xff0c;包括基础概念解释#xff08;AI、Transformer、Token等#xff09;、数据工程#xff08;算力搭建与数据处理#xff09;、预训练阶段#xff08;让模型学习语言规律#xff09;、指令微调#xff08;SFT和RLHF技…这篇文章系统介绍了大语言模型的完整开发流程包括基础概念解释AI、Transformer、Token等、数据工程算力搭建与数据处理、预训练阶段让模型学习语言规律、指令微调SFT和RLHF技术以及最终的模型评估、压缩与服务部署。通过这五个步骤读者可以全面了解如何从零开始构建一个大语言模型掌握从理论到实践的全过程。Step 1 名词解释AIAI (Artificial Intelligence人工智能) 是一个广泛的科学领域目标是让机器能够像人类一样思考、学习、解决问题和感知环境。本质 它不是一个具体的软件而是一种科学技术。表现 凡是能让计算机展现出“智能”行为的技术如语音识别、图像识别、自动驾驶都属于 AI。模型如果说 AI 是一项手艺那么模型 (Model) 就是学成之后的那张“数学公式表”。形象理解 想象一个学生算法在读了万卷书大数据后总结出了一套规律模型。当你问他问题时他查阅这套规律给出一个概率最大的答案。数学本质 模型本质上是一个复杂的函数yf(x)y f(x)yf(x)它由数以亿计的参数权重组成。输入一个数据如一句话模型通过计算输出一个结果如下一个字。TransformerTransformer 是目前大语言模型如 ChatGPT最核心的底层架构。它于 2017 年由 Google 提出彻底改变了 AI 的训练方式。并行计算 以前的 AI 模型必须一个字一个字地读而 Transformer 可以一次性处理整段文字这使得用超级计算机大规模并行训练 AI 成为可能。目前的地位 现在的 GPT、Llama、Claude 几乎所有顶尖 AI 模型都是基于 Transformer 架构改进而来的。Token在 AI 大模型的世界里Token 是模型阅读和处理文本的基本单位。模型并不能像人类一样直接理解“汉字”或“单词”它们只能处理数字。因此在训练的第一步数据工程阶段我们需要将原始文本切分成一个个片段并给这些片段分配唯一的数字 ID。这些片段就叫做 Token。Token 的切分逻辑Token 的大小并不是固定的它取决于所使用的分词算法Tokenizer英文中 一个 Token 通常是一个单词如 apple或者一个单词的一部分如 friendship 可能会被切分为 friend 和 ship。中文中 一个 Token 可能是一个字如 我也可能是一个常用的词语如 人工智能。近似换算 通常情况下1000 个 Token 大约等于 750 个英文单词或 500-600 个汉字。为什么需要 Token数字化转换 Token 是从“文本”到“向量数字”的桥梁。只有转成 Token IDTransformer 架构才能进行后续的数学运算。控制词表大小 如果以整个词为单位词表会无限大如果以字母为单位信息密度太低。Token 是在效率和信息表达之间取得的平衡词表通常在 3w-10w 之间。计算成本 大模型的输入长度限制Context Window和调用 API 的计费通常都是按 Token 数量计算的Step 2 数据工程算力集群搭建 准备成百上千块 GPU如 NVIDIA H100/H800。需要配置高速网络InfiniBand和并行计算框架如 PyTorch、DeepSpeed、Megatron-LM。原始数据采集 从互联网抓取万亿级Trillions的 Token。来源包括 Common Crawl、维基百科、书籍、代码仓库GitHub、学术论文等。数据清洗与过滤质量过滤 剔除广告、低质文本、乱码。去重 删掉重复的网页和文档防止模型在某些内容上过度拟合。隐私处理 过滤电话、邮箱等隐私信息。分词Tokenization 将文本切分为模型能理解的数字序列TokenStep 3 预训练这一阶段的目标是让模型学习“预测下一个字”从而习得语言规律和世界知识。架构选择 目前主流是大规模 Decoder-only 架构如 GPT 系列。自监督学习 模型阅读海量文本不断尝试预测被遮挡或下一个出现的单词。如果预测错了通过 反向传播 (Backpropagation) 更新参数。分布式训练数据并行 将数据分给不同 GPU 跑。张量并行/流水线并行 因为模型太大单个 GPU 存不下需将模型的层或参数切分到多个 GPU。产出 得到 基座模型 (Base Model)。此时的模型很有才华但不会听人指挥只会“接龙”。Step 4 指令微调A. 有监督微调 (SFT - Supervised Fine-Tuning)具体操作 编写数万条“指令-回答”对例如“请写一首关于秋天的诗” - 对应的范文。效果 模型从“复读机”变成了一个能听懂人类指令的“助手”。B. 基于人类反馈的强化学习 (RLHF)奖励模型训练 (RM) 让模型生成几个答案由人类给这些答案打分。训练一个“裁判模型”来学习人类的喜好。强化学习优化 (PPO/DPO) 模型在裁判模型的监督下不断自我进化得分越高该行为就越被强化。Step 5 模型评估模型评估 在各个评测集如 MMLU, GSM8K上测试其逻辑、代码、常识能力。模型压缩量化 (Quantization) 将参数从 16 位浮点数降到 8 位或 4 位减少显存占用。蒸馏 (Distillation) 用大模型教小模型。服务部署 使用 vLLM 或 TensorRT-LLM 等推理引擎将模型打包成 API 供用户调用。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】