2026/3/4 13:43:38
网站建设
项目流程
网站怎么做英语和中文的,苏州网页设计制作培训,山东住房和城乡建设局网站首页,今天的新闻头条2025是Agent的元年#xff0c;可以说这一年对于大模型和智能体来说都有不少重大的突破。对于笔者来说#xff0c;一直很想写篇文章梳理一下这一年发生的事情#xff0c;不过笔者仅从自身工作和关注的角度出发#xff0c;难免有所遗漏#xff0c;还请读者海涵。 一、 基座模…2025是Agent的元年可以说这一年对于大模型和智能体来说都有不少重大的突破。对于笔者来说一直很想写篇文章梳理一下这一年发生的事情不过笔者仅从自身工作和关注的角度出发难免有所遗漏还请读者海涵。一、 基座模型首先2025年初最火的话题莫过于DeepSeek了。DeepSeek V2模型在业界中已经有不小的知名度了而V3和R1更是成为现象级的热点不仅登上了央视甚至你可以看见连非从业人员都在谈论DeepSeek盛况堪比ChatGPT发布时的热度。笔者看来DeepSeek这次的更新主要有几点贡献1证明了大模型的训练不一定是唯GPU论不是说没有卡或者卡少就做不了SOTA的大模型了目前大模型在架构和训练方式上还能有不少创新攻破这些创新点大模型的训练成本和难度自然就降下来了。2DeepSeek是首个完整公开推理模型训练的厂商。之前研究人员也只是猜测GPT的o1和o3是否通过强化学习训出来的但是也没有很好的证据。而DeepSeek的技术报告彻底捅穿窗户纸。让大家发现推理模型也没有那么神秘。更近一步通过蒸馏的方式小模型也能具备一定程度的推理能力。3让推理时计算得到重视这是最重要一点可以说奠定了现在大模型的研究方向。在过去大模型的进步主要靠堆参数、堆数据用更多GPU训练更大的模型性能曲线稳定上升。但是正如Ilya Sutskever在NeurIPS的演讲中指出的那样这种方法已经遇到了瓶颈现在推理能力成为Scaling Law的第二曲线。在模型参数确定的情况下通过后训练强化学习让一个相对较小的模型在推理阶段花更多时间思考推理性能可以超越预训练参数更大的传统模型。除了DeepSeek之外阿里千问也是国产开源LLM的支柱。千问在这一年也接连推出多个开源大模型覆盖文本、编程、图像、语音、视频全模态。效果非常不错也有不少创新比如Qwen3原生支持混合推理模式。在Hugging Face上的下载量稳居前列但是在普通人中几乎没啥讨论度完全被DeepSeek盖住了风头堪比LLM届的汪峰了。此外国内其他厂商也放出了一些模型如Kimi-k2基于DeepSeek V3演变而来是首个开源万亿参数的大模型。专门针对多步工作流和Agent的工具使用场景进行了大规模训练。 DeepSeek让大模型成本跳跃式下降进而推动更多国产LLM的出现这个趋势正在强化赢家通吃。大厂基于DeepSeek或自研模型快速铺设应用矩阵依靠自身强大的用户量吸引用户而中小团队只能调头寻找垂直领域的生存空间在夹缝中求生成。国外的大模型没什么好说的最顶尖的都是闭源的GPT和Gemini稳扎稳打Claude稳坐编程领域头把交椅其他的模型几乎没什么存在感了。二、 智能体与相应技术今年3月份Manus横空出世引发了今年第二波行业狂潮并把这家公司以及背后的团队推到了聚光灯下。Manus被宣传为「全球首个通用Agent」即理论上能够执行任何电脑上能做的复杂任务的智能体。它可以自主理解复杂指令通过浏览器、搜索、代码执行等多种工具和子过程来完成任务全流程自主管理。发布首日其演示视频中Manus能自动筛选简历、分析股票等导致大家对这款产品的期待值拉满内测邀请码一码难求在二手市场能炒到5万元以上。从技术角度看Manus代表了一种新范式多智能体协作系统。由于采用了多Agent协同工作并且在工具使用和缓存上做了极致的优化在维持复杂任务执行能力的同时极大地降低了token消耗使得它能够在低成本的情况下运行它的突出之处在于对复杂任务拆解的自动化和工具调用的自组织能力。但行业内也有质疑声音有人认为Manus这类的Agent应用不过是大量Prompt的组合叠加几乎没有什么技术含量。不过在笔者看来有不同的观点。这是因为AI Agent应用与传统的SaaS服务不同传统的SaaS服务成本主要是早期的服务器等硬件支出而AI Agent应用的成本主要是token消耗这两者的成本结构完全不同。对于普通的SaaS服务而言用户越多均摊下来的成本越低而AI Agent则是用的越多成本越高。因此AI Agent的成本控制是一个非常重要的问题Manus的技术博客中有很多关于上下文工程的细节感兴趣的读者不妨自行阅读。后续Manus关闭中国公司与核心团队一起搬往新加坡很长一段时间都没有什么消息放出直到近期宣称其从成立至今不到9个月时间从零做到了1亿美金ARR成为最快达到这个阶段的AI初创公司接着这几天又在X上宣布被Meta以数十亿美金收购同时公司保留原来的运作模式创始人加入Meta成为VP。智能体相关的技术除了去年年底Anthropic的MCP协议外今年最受关注的应该是Skills了。Skills的核心思想是渐进式披露即只有在需要的时候才会加载特定的工具避免在Prompt塞入所有的工具导致Agent调用出错或者token的过多消耗。另外Skills也不是Anthropic专属目前开源社区已经有方案让其他模型也能兼容Skills架构了。A家在Agent和上下文工程方面还是有不少技术水平的不然Claude Code效果上也不至于远超其他的Coding Agent。三、 工作流与Agent之争这种争论也就这一两年才出现主要是LLM的能力相比前几年提升了不少而且基于Agent的AI应用越来越多。这两种方法都有不少框架比如n8n、Dify、Coze主打低代码的工作流构建非常方便普通用户构建自己的自动化AI工作流而像Langgraph这样的编排框架则主要面向有一定编程基础的开发者构建AI工作流至于纯Agent/多Agent框架比如OpenAI的OpenAI Agents SDK以及Google的Agent Development Kit还有Anthropic的Claude Agent SDK则主要面向更高级的开发者能够构建原生基于AI Agent的应用。关于使用工作流更好还是Agent更好两方观点争执不休。有人说Agent是未来能自主规划、自主执行。有人说这是不切实际的幻想工作流更稳定可控。根据从网上搜到的不确切消息当前企业AI Agent的应用场景排名是研究与摘要58%、优化工作流53.5%、客户服务45.8%。这说明企业更多需要的不是一个能自主思考的AI同事而是一个能更高效执行既定流程的智能助手。工作流和Agent的界限本来就很模糊。一个工作流就是一系列预定义的步骤这里面主要的逻辑是人为事先定义好的而一个Agent就是用大模型来决定执行哪些步骤这里面主要的逻辑是大模型自主决定的大模型作为大脑进行决策。在大多数实际应用中两者不是竞争关系而是融合关系既需要Agent的智能化路由也需要工作流的可控性。 所以除了常见的几种应用外2026年的趋势也许不是纯Agent或者纯工作流的方案而可能是Agent化的工作流既保留Agent的灵活性也兼具流程的可控性。四、 大厂vs. 独角兽国内AI赛道正在出现明显的分化趋势。近期智谱AI和MiniMax放出了明年在港股上市的消息招股书显示智谱长期深耕通用大模型ToB市场主要商业模式是以面向B/G的MaaS为主而MiniMax定位是面向C端用户的AI原生应用公司早期主打海外市场已经有多款AI原生APP并且在音频大模型领域也是领先水平。所谓AI六小龙事实上已经不再走在同一条路上。零一放弃通用大模型的训练转而投入到企业Agent应用的定制开发百川切入医疗赛道试图走一条差异化的道路但是似乎公司内部意见并不完全统一高管出走同时现在医疗领域还有不少玩家虎视眈眈前景估计不太乐观。与此同时大模型厂商与独角兽之间的博弈越来越多地体现在创新产品的对用户的抢占上。例如在AI Codin方面Anthropic推出Claude Code后短时间内几乎把大部分Cursor的用户都抢走了Cursor、Windsurf等先发Coding Agent的用户留存明显受到不小影响。同样的情况发生在不久后OpenAI推出新版Codex编码助手就迅速席卷市场发布不久后用户增长20倍成为OpenAI最受欢迎的Coding Agent。从这些例子可以看出独角兽公司确实可能在某一阶段形成技术或产品领先的窗口期但这种护城河往往是不持久的并且不是牢不可破。一旦大厂选择将类似能力开源或直接整合进自身生态IDE、云平台、应用体系就很容易形成强烈的漏斗效应将原本分散在第三方产品中的用户快速聚拢到自身产品中来。相比之下传统大厂的基本盘依然稳固。比如Meta虽然Llama2算是迄今为止他们给开源大模型社区做出的最重要贡献此后再也没有什么亮眼的表现但是依旧靠着移动生态掌握大量的现金流不断收购各种AI公司用于补足自身的短板。微软即便没有完全自研的顶级基础模型但依托Azure云、企业客户网络以及对openAI的深度绑定依然牢牢占据AI基础设施与分发层的关键位置而Google则走得更彻底从自研芯片、底层算力到模型与应用全面布局几乎没有明显短板。从这个角度看当前AI行业的竞争已经不只是谁的模型更强而是逐渐演变为生态与长期资金耐力的综合较量。独角兽需要不断证明自己能跑出不可替代性而大厂只要不犯方向性错误往往天然拥有更高的容错空间。五、 未来AI发展的几个关键指标推理成本当前大家还在比模型的参数大小和跑分。但随着应用规模化推理成本会成为压倒一切的指标。在性能表现差不多的情况下如果推理成本低10倍会直接淘汰其他更贵的大模型对于Agent应用来说也是同理谁能节省更多的成本谁就能活得更久。多模态能力当前的多模态还主要停留在能识别图片、生成图片的阶段包括现在已经有很多VLM在处理OCR和图片问答效果已经非常好了。但是长视频、音频等实时流数据的多模态处理会变成主流。一些应用比如很多面向内容创作者开发的工具都在等这个时刻。谁在这个阶段抢先建立工程能力和数据积累谁就能锁定一个应用场景成为下一个独角兽。数据参数可以一直增加但高质量的训练数据不能。2025年已经有人在讨论数据枯竭2026年这会更明显。越来越多的大模型在训练阶段使用合成数据、强化学习数据的质量和自动生成能力这些都将成为新的大模型竞争点。另外那些掌握高质量、特定领域数据的公司也可能会获得意想不到的议价权。六、 结语2025年的AI里程碑事件很多但最核心的其实只有两个成本大幅下降和效率范式转变。成本下降意味着AI可以被更广泛应用一切应用都可以基于AI重构一遍。大模型的尺寸效率从预训练转向更多的后训练则意味着只依靠参数和模算算力堆砌获胜的模式正在失效未来的竞争会在架构、算法、应用场景、数据质量等更细致的维度展开。我们能得到什么结论呢第一不要被AGI的宏大叙事迷惑。 过去的经验告诉我们很多技术都被渲染成某种方向上的里程碑但它们多数不是它们只是在既有框架内的优化。真正的范式转变比如从文本到多模态、从生成到推理在渐进发生但不会突然跳变。第二关注应用而不只是模型。 一个模型有多强不重要重要的是它能解决什么问题、成本是多少。2026年的创新会更多地出现在应用层和工程化层而不是模型本身。第三垂直领域会比通用领域有机会。 大厂会继续垄断通用AI的话语权但在医疗、法律、制造、教育等具体行业细致的领域知识特定的应用设计仍然能打败通用的大模型。最后保持谦逊和学习的态度。AI的发展比我们想象的既快又慢——快是因为技术迭代周期越来越短慢是因为真实的商业价值兑现需要漫长的社会适应过程。人们总是高估技术短期的变化而忽略长期的影响。2026年也许会再次证明这一点。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】