田贝网站建设长沙多地发布最新通告
2026/4/3 18:38:51 网站建设 项目流程
田贝网站建设,长沙多地发布最新通告,哈尔滨百度推广公司,大型网站都怎么做推广一、全文翻译 原文https://www.oreilly.com/radar/building-applications-with-ai-agents/ 在他的新书《使用 AI 代理构建应用程序》出版后#xff0c;我与作者 Michael Albada 就他撰写本书的经历以及他对 AI 代理领域的看法进行了交流。 Michael 是一位机器学习工程师我与作者 Michael Albada 就他撰写本书的经历以及他对 AI 代理领域的看法进行了交流。Michael 是一位机器学习工程师拥有九年经验曾在 Uber、ServiceNow 以及最近的微软等公司设计、构建和部署大规模机器学习解决方案。他曾从事推荐系统、地理空间建模、网络安全、自然语言处理、大型语言模型以及用于网络安全的大规模多智能体系统的开发工作。从我们的谈话中可以明显看出如今撰写一本关于人工智能的书籍绝非易事但对 Michael 来说最终的成果绝对值得付出时间和精力。我们还讨论了写作过程、如何跟上这个快速发展的领域的步伐、Michael 对序列长度模型SLM和微调的看法以及他在微软参与的关于自动调优Autotune的最新工作。以下是我们的对话为了清晰起见略作编辑。1最初是什么启发你写这本关于人工智能代理的书当你最初开始这项工作时你是否有过任何顾虑Michael Albada当我加入微软网络安全部门时我就知道各类组织正面临速度更快、规模更大、复杂性更高的网络攻击而应对这些攻击既昂贵又困难。全球网络安全分析师的数量远远不足以保护所有组织因此我非常兴奋能利用人工智能来帮助解决这个问题。我逐渐意识到智能体agent的设计模式是一种令人兴奋的全新构建方式而且非常有效——这些语言模型和推理模型作为自回归模型能够生成 token。它们生成的 token 甚至可以作为函数签名function signature从而触发对其他函数的调用以获取更多信息、执行工具。我清楚地认识到这将彻底改变我们许多工作的方式也将彻底改变软件工程的实践方式。但当我四处寻找相关资源时却发现并没有太多高质量资料。因此当我在微软内部做演示时我发现大家对此充满好奇和热情但他们不得不直接去读研究论文或在海量博客里摸索。我开始整理一份文档准备与团队分享但随后意识到这份文档不仅对微软内部有用对整个行业也有价值。于是我决定把它发展成一个更全面的项目面向更广泛的社区分享。2一开始你对写“整本书”这件事有没有顾虑毕竟这是你的第一本书对吗你当时担心什么Michael我很早就想写一本书了。尤其是 Chip Huyen 的《Designing Machine Learning Systems》《设计机器学习系统》让我非常喜欢我也很敬佩她把她当作一个榜样。我记得自己更早读过 O’Reilly 的书也曾有幸听过 Tim O’Reilly 的一次演讲特别欣赏那种“把知识分享给更大社区”的行动。可以想象吗如果软件工程没有这些资源、没有这种分享会变成什么样所以我一直想把这份价值继续传递下去。我还记得自己刚开始学计算机科学时就希望有一天我能积累足够的知识与专业能力写出一本自己的书。我觉得那个时刻来得很突然——当我环顾四周发现自己正在做智能体、跑实验、看到它们真的有效而且几乎没有人在这个方向写书。于是我意识到写这本书的时机就是现在。当然我也怀疑过自己是否准备好了。我之前没写过书这确实是个令人望而生畏的项目。另一个更大的担忧是这个领域变化太快。我害怕如果花时间写书等到出版时它还能有多相关更不用说它能否经得起时间考验。我认真想了想意识到像“智能体这种设计范式的重大转变”人们真正开始用它来设计和构建系统是需要时间的而很多基础原则会相对稳定。因此我采取的策略是不把书写得过度依赖某一个框架或某一个模型而是更聚焦基本原理与原则写作方式既要让读者能落地、能配合代码实践也要尽量让内容经得起时间检验对更广泛的读者在更长时间里保持价值。3你确实抓住了机会但你提到“变化太快”——这是我为每一本要签约的书都会问自己的问题。你在写作中也经历了必须“实时调整”的过程。你能谈谈写作流程吗在一切飞速变化时如何把这些技术与概念写成清晰、连贯、并吸引目标读者的叙事Michael我一开始先写了一个完整的大纲搭建一个粗略结构。回头看这个结构从一开始就基本保持住了。整本书我写了大概一年多。我的写作过程有点像“快思考与慢思考”的结合我希望先把每一章的粗稿都铺开这样我能明确自己要去哪里、哪些部分会难、如果读者跳读会不会出现逻辑断层。我希望这本书从头读到尾是愉快的同时也能作为一个随时查阅的参考手册——读者即便只翻某一节也能获得价值。说实话框架变化比我预期的更快。我开始写的时候LangChain 是明显的领跑者AutoGen 也很接近。但现在回头看大家的关注点更偏向 LangGraph 和 CrewAI。原本我们以为会逐渐收敛到少数几个框架结果却相反生态更碎片化了框架数量爆炸式增长——Amazon 发布了 Thread原文如此OpenAI 发布了自己的框架Anthropic 也发布了自己的。这种碎片化反而印证了我当时的写法是对的不在单一框架上押注太深而是强调能跨框架通用的基本原理。模型发展的速度也极其惊人——我刚开始写这本书时“推理模型”才刚出来但它已经改变了我们做软件工程的方式并显著增强了这些智能体设计模式的能力。所以有些方面变化比预期更大但也有些方面变化比预期更小。我认为核心内容与基本原理会更耐用。我很期待这能在未来持续帮助读者。4说到读者编辑团队通常会建议作者明确“理想读者”避免试图覆盖过宽的人群。但现在来自不同背景的人都对智能体很感兴趣。你写作时如何定义你的目标读者Michael我的目标读者一直是希望越来越多使用 AI、并构建更复杂系统的软件工程师——他们要用它解决真实工作问题可能是个人项目也可能是团队或组织里的项目。我没有预料到会有这么多公司把自己的工作重新包装成“智能体”并强调那些更现成、更开箱即用的 agent 解决方案。而我的重点是帮助读者真正理解这些模式并学习如何从地基开始构建——从模型层面向上构建。我很高兴看到现在有很好的工具让构建更容易但我认为理解“从模型到系统”的构建方式依然非常重要。另一个补充是很多产品经理和高管也能从理解这些系统中获益——他们需要知道这些系统如何改变组织。与此同时我们也看到低代码/无代码智能体构建器的热度在上升不仅有商业化现成产品也有像 Dify、n8n 这样的开源框架以及 OpenAI 新发布的 AgentKit 这类拖拽式图形界面工具。当然正如我在书中讨论的“代理性agency”是一个光谱本质上是把一定程度的选择权交给语言模型。那些强约束、定义非常清晰的系统——它们比起给一个具备记忆、学习、工具使用、甚至自我改进能力的完整语言模型来说“代理性”更弱。但它们依然能让人完成非常真实的工作。因此这本书也能帮助这群正在增长的低代码/无代码用户理解如何把系统“升级”并把低代码版本迁移为代码版本。还有编码模型例如 Claude Code、GitHub Copilot的普及正在大幅降低门槛让技术背景更弱的普通人也能构建很强的解决方案。这本书可以作为一条坡道让人从早期试验与小项目走向更坚固、可上线生产的系统。5回顾写作过程你遇到的最大挑战是什么你如何克服这又怎样塑造了最终的书Michael我认为最大的挑战就是跟上框架的变化并确保书里的代码能保持长期价值。当我第二遍回看自己写的代码时有些已经过时了。于是我不得不持续更新与改进迁移到最新模型、升级到最新 API——底层的变化就是这么快。行业里的每个人都能感到变化速度在加快所以关键就是跟上它。我应对的方式是不断学习、密切关注进展并尽量把最新研究结果融入书中以确保它印刷出版时尽可能“新”、尽可能相关从而给读者最大价值。6如果你只能给一位想写书的人一句建议你会说什么Michael去做吧我从小就爱书。书在很多时刻、很多层面与我对话。我知道自己想写一本书。我想想写书的人一定比真正写了书的人多得多。所以我想说你可以的即便你的书卖得不怎么样世界上也一定有读者会需要它。每个人都有独特的视角、独特的背景与独特的贡献。我们都能从更多思想被写下来、被传播给更大世界中受益。我也要说这比我预想的更辛苦。我知道会很难但写书需要经历非常多轮草稿。第一稿其实不难难的是在投入很多时间之后如何说服自己“足够好了”。没有什么是完美的我们很多人都有完美主义倾向总想继续打磨。要对自己说“就到这儿吧”其实很难。很多作者也都知道自己的作品并不完美。你需要一种有趣的自律一方面持续投入让作品尽可能好另一方面也要具备相反方向的自律——承认“这已经足够”然后把它交给世界去做下一个项目。7切换到智能体系统本身在写书过程中你对智能体系统有什么“意外的发现”或“超出预期的变化”吗Michael老实说是这些模型进步的速度。对没有持续关注研究的人来说这看起来像是一条条新闻稿接连发布。尤其对不在西雅图或硅谷这些“大家都在讨论 AI”的地方的人来说可能会觉得自 ChatGPT 出来之后“似乎也没怎么变”。但如果你真的持续观察模型进展会非常震撼从监督微调与 RLHF人类反馈强化学习转向带可验证奖励的强化学习reinforcement learning with verifiable rewards再到推理模型的兴起以及人们认识到“推理能力可以随规模而扩展”并且我们需要更多环境、更高质量的评测器graders。当我们不断完善这些环境并训练更大的模型、训练更久就会看到性能持续变好然后我们还能把这种强大能力蒸馏到更小的模型里。因此人们的期待值在非常快地膨胀。我们现在往往用很高的期待去评判每一次发布所以对单次发布感到失望并不罕见。但我们忽略了更重要的东西这种随时间发生的指数式复利增长。如果你回看 3、6、9、12 个月会发现变化非常惊人。我尤其想强调编码模型Anthropic 的 Claude 领跑但 Codex、Gemini 也很强。即便是顶尖开发者手写代码的比例也在下降。不是他们的技能不重要了而是他们需要“修”的东西越来越少。这意味着团队可以更快地推进、以更高效率构建。我认为模型与软件的进展如此之快很大原因是我们拥有大量训练数据并且能构建清晰的验证器与评测器于是就能持续在其上迭代优化。现在我们也看到这种方法扩展到医疗、法律、生物、物理等问题上。但这些领域需要投入去构建额外的验证器、评测器与训练数据。我仍然相信我们会在多个行业看到突破这将改变许多产业——这令人非常兴奋。8你经常在活动上演讲也会接触到外界对智能体系统的各种看法。你遇到过哪些常见误解你会如何回应Michael误解太多了。可能最根本的一个是有些人会有点“幻想式”地把大语言模型当作人。软件工程师倾向于用“渐进改进”的方式思考我们找一个指标优化它一点点变好——这正是我们走到今天的方式。我听过一个很棒的描述这些模型是“会思考的石头”thinking rocks。我们依然是在做矩阵乘法、在预测 token。我会鼓励大家聚焦具体问题实测模型表现。它对某些事有效对另一些事无效。我们有一系列技术可以改进它但关键是保持怀疑、经验主义、务实用现有技术去解决人们真正关心的问题。我也经常看到有人跳跃式地问“能不能让一个智能体诊断你电脑上的所有问题能不能让智能体做那种‘人类式思考’”也许遥远的未来可以。但现实是这个领域是由聪明的人通过辛苦工作、每次把指标提升几个点推动的而这些提升会复利累积。所以我会鼓励大家把它当成强大、有用的工具但本质仍是预测 token 的模型。用这种务实的方式去理解它往往更接近真相。9你认为当前领域最重要的趋势或挑战是什么Michael我认为最大的开放问题之一是训练昂贵的前沿大模型的顶级实验室能在多大程度上以“可泛化”的方式解决这些大问题与之对立的趋势是越来越多团队在做微调fine-tuning。两者都很强大、很有效。回看过去 12 个月小模型的进步非常惊人30 亿参数的模型已经接近几个月前 5000 亿甚至万亿参数模型的水平。小模型使得初创公司、财富 500 强、乃至中小企业更可能拿自己的数据去微调一个模型让它更懂自己的领域、上下文与业务运作方式……这对很多团队非常有价值他们可以掌握训练管线定制自己的模型甚至定制构建在其上的智能体并形成闭环学习反馈让智能体执行任务、收集数据、对结果打分然后再微调模型去做得更好。Mira Murati 的 Thinking Machines公司就很强调“微调是未来”这确实是一个很有前景的方向。但与此同时我们也看到大模型具有泛化能力。OpenAI、xAI、Anthropic、Google 等大实验室正在投入大量训练环境与评测器使模型在更广泛任务上不断变强。一个开放问题是这些大模型会以多快速度变得“足够好”从而覆盖大多数公司的需求当然大实验室会说“通过 API 来用我们的模型吧相信它们会越来越好并为你的各种用例持续付费。”因此如同以往如果你是流量较小的小公司用大厂 API 很合理但如果你像 Perplexity 或 Cursor 这种推理量极大的公司拥有自有模型可能更划算——自建的单位推理成本会更低。我猜这个门槛会随时间降低未来中型科技公司、部分财富 500 强、乃至越来越多中小企业在某些用例上也会觉得“自有模型”值得。大实验室的能力与“小公司也能拥有并定制模型”的工具之间形成健康张力与竞争会非常值得观察。尤其当小模型底座持续变强你会获得更好的起点。企业也喜欢拥有自己的数据并用训练生态构建差异化智能与差异化价值。10你如何保持更新你提到读论文。还有哪些资源对你个人特别有用Michael其中一个方式就是直接去 Google Scholar 和 arXiv。我有几个特别感兴趣的主题会定期搜索。LinkedIn 也非常棒。能连接更多业内人士看到他们分享与发布的工作很有趣。我发现聪明的人会在 LinkedIn 分享非常聪明的东西——那是信息密度惊人的平台。然后尽管 X原 Twitter有各种优缺点它仍然是一个高质量资源很多研究者都在那里也有很好的讨论。所以这些是我的主要信息流。11最后你愿意聊聊你现在正在做的有趣工作吗Michael我最近参与了一个团队我们推出了一项名为“自动调优”Autotune的功能。微软刚刚发布了试点代理你可以设计和配置代理使其自动执行即时调查和威胁搜寻从而更轻松、更安全地保护你的组织。作为试点代理的一部分我们刚刚发布了“自动调优”Autotune新功能它可以帮助你自动设计和配置代理。此外它还能根据代理在你环境中的运行情况收集反馈并随着时间推移进行更新。我们将继续在此基础上进行开发和完善。我们正在探索一些令人兴奋的新方向相信这些方向能够让更多人受益于这项技术。敬请期待。此外我们还在推进更高层次的智能将贝叶斯超参数调优与实时优化相结合从而实现自动化模型选择并帮助配置和改进生产环境中的智能体。我们认为这种自学习能力将非常有价值能够帮助更多团队从他们设计和发布的智能体中获得更多收益。**Nicole**听起来很棒谢谢你Michael。二、解读5问5答Q1这篇访谈最核心的“观点主线”是什么**A1**主线是两条线并行写书方法论在高度不确定、快速迭代的 AI 领域写书必须抓住“跨框架的基本原理”而不是押注某个短周期工具栈。工程落地观智能体不是“拟人化的同事”而是“预测 token 的工具系统”工程师要以怀疑、实证、可测量的方式做系统设计与评估。Q2他为何反复强调“不要绑定单一框架”这对读者有什么现实意义**A2**因为他亲历了框架格局从 LangChain/AutoGen 到 LangGraph/CrewAI再到各家厂商自建生态的碎片化过程。现实意义是你的系统设计若过度依赖某个框架 API技术债会以“时间”而非“代码量”指数增长反过来若掌握“工具调用、记忆、评估、反馈闭环、可靠性工程”等原则就能在不同框架间迁移。Q3他对“智能体能力边界”的判断是什么为何说“thinking rocks”很关键**A3**他用“thinking rocks会思考的石头”纠正两类误区拟人化误解把模型当人会导致不恰当的期待与风险放大比如让其“全权诊断电脑”。工程偏差忽视了模型本质仍是统计预测与工具编排需要用可测试流程、验证器/评测器、约束与监控来保证可靠性。关键不在“它像不像人”而在“它能否在特定任务上稳定达标”。Q4他提出的“大模型 vs 微调小模型”张力隐含了怎样的组织决策框架**A4**隐含框架可以概括为一句话流量与数据主权决定形态。小公司/低流量用 API 更省事迭代快大流量/强数据壁垒自建或自微调更划算推理单位成本更低且能形成闭环学习与差异化能力未来趋势小模型底座更强 工具更成熟使“自有模型”的门槛继续下探。Q5Autotune 与“贝叶斯超参调优实时优化”的段落透露了智能体工程的下一步是什么**A5**它透露的不是某个产品功能而是一个方向智能体从“被配置”走向“可自我改进的系统”。Autotune把“设计/配置代理”部分自动化并基于运行反馈持续更新更进一步引入贝叶斯优化等方法将离线超参搜索与在线反馈结合实现更自动化的模型/策略选择。这意味着智能体工程的竞争点会从“能不能跑”转向“能否在真实环境中持续变好、且可控可审计”。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询