2026/1/10 8:58:34
网站建设
项目流程
网站推广工作总结,大连金州招聘信息最新招聘,优质的wordpress主题,建设银行假网站2025年12月18日#xff0c;火山引擎Force原动力大会在上海召开。作者 | 高 飞2011年#xff0c;马克安德森在《华尔街日报》发表了一篇文章#xff0c;标题是《为什么软件正在吞噬世界》。他的论点很简单#xff1a;越来越多的行业正在被软件公司颠覆。软件能力更强的亚马…2025年12月18日火山引擎Force原动力大会在上海召开。作者 | 高 飞2011年马克·安德森在《华尔街日报》发表了一篇文章标题是《为什么软件正在吞噬世界》。他的论点很简单越来越多的行业正在被软件公司颠覆。软件能力更强的亚马逊、Netflix、Spotify等分别改变了零售、影视和音乐行业。软件吞噬世界的过程也是计量单位不断演变的过程。PC时代微软按“许可证”收费。互联网时代Salesforce发明了SaaS按“订阅”收费。云计算时代“资源”一度成了计量单位比如用了多少核、多少GB、多少小时。每一次计量单位的切换软件就向前吞噬一步。十四年过去安德森的判断基本应验。但他当时自然无法预料的是软件本身也在被吞噬。吞噬发生在两个层面。开发方式在变Vibe Coding正在兴起开发者用自然语言描述需求模型生成代码程序员的工作从”写代码”变成”审代码”。软件形态也在变越来越多的软件正在变成Agent它们不再等待用户点击按钮而是主动感知、决策、执行。两层吞噬指向同一个结果Token正在成为新的计量单位。开发者用Token生成代码Agent用Token完成任务。2025年12月18日火山引擎Force原动力大会在上海召开。火山引擎总裁谭待宣布了一组数字截至2025年12月豆包大模型日均Token使用量已突破50万亿居中国第一、全球第三。最惊人的是其中的加速度因为这个数字在一年前还只是4万亿。而且在火山引擎累计Token使用量超过一万亿的企业也超过了100家。谭待在会后的媒体采访中用“内核”这个词来描述这种变化。“技术的变化要看它的内核。PC时代的内核是网站围绕网站有了MySQL、PHP。到了移动时代产业规模增长十倍围绕APP有了新的技术栈。到了AI时代网站和APP都会在但背后的逻辑会变成Agent。”所以在这次大会上我看到火山引擎的一种打法云的形态在变模型的目标也要变。具体来说是一朵“token友好型”云和一种“agent友好型”模型。1云的新角色先说云。谭待表示大模型的出现让企业上云的必要性大幅度增加。他在记者会中讲了一个观察年初DeepSeek还没出来的时候很多企业买了AI一体机但是其中很大一部分没有发挥作用。这是因为企业无法把全栈AI能力都本地化“模型三个月就更新一代私有化的版本会落后太多。更关键的是如果用模型去做Agent模型能够本地但是AgentKit、RAG、向量数据库这些周边技术都没法私有化。这就等于拿了一个可能几个月就会被淘汰的上一代模型配上一套不全的开源栈跑在算力不够的设备上。”所以他的判断是AI时代云的重要性比以前更大而不是更小。但云的角色需要重新定义。具体而言就是模型迭代快生态依赖多弹性需求大。方方面面都影响着企业的AI预算和决策。火山引擎智能算法负责人吴迪在大会演讲中以模型推理这件事为例算了一笔账。他说对于大部分团队来说低成本、高吞吐地推理好一个大模型可能比后训练好一个大模型更困难。建设初期企业可能需要付出数百万人民币的投入成本经历若干个月的上线周期还要面对复杂的运维工作。进入规模化阶段后除了线性上涨的硬件成本还有容易被忽视的隐性支出比如更高的运维要求、更好的SRE团队、更强的AI架构师这些都需要时间培养。而当一个新业务的增长曲线爆发时企业往往来不及做好准备。基于这个判断火山方舟推出了“推理代工”服务。吴迪用了一个比喻就像一台已经调校完成的顶级赛车只等用户把模型插入发动机就能开跑。用户上传加密后的模型checkpoint无需运维底层GPU无需做复杂的网络和调度配置只需要关注流量本身。数据显示当企业选择云上集群替代自建集群时硬件和运维成本下降约一半进一步使用方舟的推理代工后对比云上租赁GPU算力客户还能获得1.6倍的吞吐提升并通过弹性采购避免空闲时段的资金浪费。英伟达黄仁勋在GTC上有一句名言“买的越多省的越多”。火山引擎也发布了一项“AI节省计划”口号是”用得越多省得越多”最高可为用户节省47%的使用成本。弹性是另一个关键词。吴迪在会上展示了一张真实的流量曲线图绿色是某业务的真实流量蓝色是方舟提供的算力两条曲线紧紧贴合。方舟能在分钟级完成百卡到千卡的伸缩。不过一切放在云端安全就会成为企业尤其是大企业的一种顾虑。对此火山引擎把安全作为一个关键特性。火山引擎推出了AICCAI机密计算让用户可以把所有模型包括开源的和豆包的都纳入机密计算保护。2Agent的胃口我们再说模型。Token不会凭空消耗。谁在大量吃Token火山引擎的判断是未来消耗Token的主体将是Agent而非人类用户。这个判断初听反直觉。毕竟现在用豆包APP的是人和ChatGPT对话的也是人。但是其中内在的逻辑是人与AI的对话量有限但Agent自动执行任务时产生的Token消耗将远超人工对话。谭待在采访中用“天花板”理论来解释这个差异对于AI的采用有的行业起量特别快但天花板低有的行业起量特别慢但天花板很高。陪伴型聊天的天花板就不高因为一个人每天能够讲话的时间就那么多。但是深度研究类Agent就正好与此相反企业管理者一天可能只问一次“豆包你告诉我明年什么行业会更好”。但要回答好这个问题Agent背后可能要去做各种搜索、比对、数据清洗、假设扩展。这一个需求的Token消耗就超过了一整天的陪伴聊天总量。换句话说Agent吃掉的不是“对话量”本质是“工作量”。它把原本需要多人多次完成的任务压缩成一次请求背后是成百上千次的模型调用。企业也在用实际行动投票。谭待披露的数据显示2024年平均一家企业投产的智能体数量是58个到2025年这个数字已经达到200多个有的企业甚至投产了超过1000个。但谭待同时指出了一个悖论“现在模型已经够强了但是真正把这个强用好的企业也不多。这还就是因为Agent迭代太慢它需要有一套新的、为Agent开发运行设计的AI原生架构。”他在演讲中拆解了这个鸿沟很多团队能用几天时间就搓出一个Agent的demo但接下来要把它跑在生产环境符合SLA、合规、安全、成本等各项要求往往要花费数月甚至更久。问题的本质是缺少为Agent规模化运行而设计的基础设施。火山引擎发布的AgentKit平台试图填补这个空白。谭待把核心能力归纳为八个模块Identity身份与权限管理、Runtime运行时环境、Sandbox沙箱工具服务、Gateway统一入口、Memory记忆库、可观测能力、Evaluation评测体系、Guardrails安全护栏。从我个人的理解既然Agent是在协助人工作那么它的管理逻辑也应该借鉴人类组织的经验。这八个模块的设计逻辑某种程度上复刻了人类组织管理的基本原理。分别拆解一下Identity对应角色与责任边界Runtime对应制度环境与生产纪律Sandbox对应风险隔离与安全试点Gateway对应流程与入口治理Memory对应组织记忆可观测能力对应管理可见性毕竟德鲁克说”不能衡量就难以管理”Evaluation对应绩效评估与持续改进Guardrails对应规则与边界内建。当Agent从工具变成执行单元系统就需要一套能让它像组织成员一样被授权、被约束、被评估、被追责的生产体系。八个模块显然很多在大会前的沟通中我请火山引擎云基础产品负责人田涛涛帮忙挑选企业AI负责人应该关注的三个要素他选择了身份、评测、入口。他解释传统应用时代企业只需要管理“人”的权限在Agent时代企业需要管理Agent、工具、系统之间的关系身份不清、权限不明就会出现严重的安全问题。评测自然同样关键开发者可能认为Agent表现不错一旦换一个模型版本、换一种使用方式就可能出问题。最后是网关火山引擎在网关层提供了一套基于Ranking模型的搜索机制通过语义匹配让模型找到正确的工具。对于这套Agent打法的实效谭待用这次Force大会的报名系统做了现场演示。传统开发模式下实现一个Agent至少需要1500到2000行代码。通过AgentKit同样的功能只需要61行代码量减少96%。另外Agent的胃口不仅大而且杂也就是多模态。谭待说以前用户使用就是聊天所以支持文字就行了。但现在让模型帮助处理事情输入可能就带视觉的比如在车里、在线下摄像头。工具返回的结果很多也是视觉化的所以模型必须要有视觉化的理解才能理解这些工具的结果。这次大会发布的豆包大模型1.8Doubao-Seed-1.8正是沿着这个方向设计的。官方定位是“面向通用真实世界Agent”核心目标是从纯语言生成走向主动决策。技术报告显示在衡量通用AI助手能力的GAIA基准测试中豆包大模型1.8得分87.4超越GPT-5 High的76.7在多模态视觉搜索任务MM-BrowseComp上得分46.3领先GPT-5 High的27.7。更值得注意的是框架兼容性无论是Claude Code、Trae还是OpenHands豆包大模型1.8都能保持稳定表现说明模型具备的是内在的工具理解能力而非依赖特定框架的提示词工程。消费Token的主体是Agent而Agent要在真实世界干活就必须能看、能听、能读。模型对Agent友好首先意味着对多模态友好。3模型和Agent都在”强化学习”模型和Agent是企业AI业务落地的一体两面。有趣的是在两者之间我们还能找到一个技术上的连接点它就是强化学习。自模型演化至推理形态强化学习的重要程度就与日俱增而且带来新的AI算力架构需求。吴迪在会前沟通中用了一个类比。传统的预训练系统“像一块石头一样紧凑”几千张卡以极高的互联同构连接在一起。强化学习系统“像一个太阳系”有Trainer、Rollout、Reward以及散布在周围的大量沙盒和虚拟机环境。这个比喻就解释了模型的强化学习和Agent的构建在底层逻辑是相通的它们都需要在环境中学习。Agent需要在真实的应用环境中执行任务、获得反馈、调整策略强化学习需要在模拟环境中尝试行动、获得奖励或惩罚、优化决策。核心逻辑一致通过与环境的交互来提升能力。因此吴迪在演讲中也反复强调强化学习将变得越来越重要。现在大部分AI系统还是静态的难以随着用户数据的增长去自发进化。Agent要真正融入企业核心业务就必须能够自我学习。火山方舟这次在大会上推出了Serverless RL强化学习平台。吴迪用抖音客服的案例做了演示算法工程师用真实客户对话总结出训练剧本设计虚拟环境让模型扮演客户与待优化的客服模型大量对话再通过多维度的Reward评分体系语气、流程、情绪识别等形成自动循环。结果显示经过强化学习的模型表现出更好的专业度和拟人度问题解决率提升了10个百分点并节约了80%的工程准备时间。强化学习对云是一种新的负载类型对模型是一种让它变得更“agent友好”的训练方式。它同时服务于两端把这朵“token友好型”云和这种”agent友好型”模型缝合在一起。我们把这次AI变革叫第四次工业革命技术背后自然是产业、商业模式变革。谭待在采访中提到”我们现在看Token的消耗所在不能单纯从IT预算的环节里面看它。如果AI更多作为Agent去使用呈现企业完全可以从BPO的角度来看AI投资。当Agent能协助企业处理客服、财务、人力资源这些业务它的应用也就进入了更深层次。这也是为什么谭待在回答竞争问题时反复说“市场足够大”、“明年可能还要涨十倍”因为大家看的不是存量博弈是一起把增量做出来。有记者问到豆包大模型和Google DeepMind这样的全球AI实验室的模型相比有多大差距时谭待用了一个说法”你要衡量距离那有差距你衡量速度可能短期也会有差距。但我觉得更重要还是看加速度。”我理解其中言外之意时从许可证、订阅到资源计量单位换了几轮。现在轮到Token。但每一轮切换历史上看看的都不是谁暂时领先而是谁能跟上加速度。毕竟回到一年前大家谈AI实验室还言必称OpenAI今天就变成了DeeepMind。