2026/4/14 23:20:51
网站建设
项目流程
官方查企业信息的网站,php网站 mysql数据库配置文件,可信赖的响应式网站,济南网络优化推广动态上下文发现#xff1a;Cursor的最新思路#xff0c;优化AI上下文管理
大家好#xff0c;我是猫头虎#xff01;今天来给大家分享一篇有意思的文章#xff0c;最近Cursor刚刚发布了《Dynamic Context Discovery》这篇文章#xff08;原文链接#xff0c;译文链接Cursor的最新思路优化AI上下文管理大家好我是猫头虎今天来给大家分享一篇有意思的文章最近Cursor刚刚发布了《Dynamic Context Discovery》这篇文章原文链接译文链接。这篇文章详细讲述了他们如何优化AI模型的上下文管理。虽然它和Manus的Peak曾在访谈中提到的想法很相似但也给我们带来了一些值得深思的新思路。说起来AI上下文的管理真是越来越成为技术开发中的核心问题今天我就带大家一起拆解一下Cursor的这篇文章。文章目录动态上下文发现Cursor的最新思路优化AI上下文管理上下文管理不仅仅是多塞信息1. 动态上下文发现的五个优化技巧场景一长输出变成文件场景二聊天历史变成可查档案场景三按需加载技能场景四MCP工具的瘦身术场景五终端会话也是文件2. 为什么是“文件”3. 个人思考总结上下文管理不仅仅是多塞信息在之前的访谈中Manus的Peak曾说过所以Peak说当他们读到一些模型公司发布的研究博客时心情是“既开心又无奈”。开心是因为这些博客验证了他们的方向无奈是因为博客里写的东西基本都是他们早就在做的。Cursor的这篇文章实际上间接印证了Peak的这个观点。虽然不能说Cursor抄袭了Manus的技术但我们能明显看出无论是Manus还是Cursor都把上下文管理作为AI模型运行的关键。而管理好上下文的一个核心理念就是“不要总是把信息塞给AI模型”。很多人用AI时总怕AI不知道、记不住想方设法把整个项目的文档、历史记录、工具说明全塞进模型里。问题是随着模型越来越聪明过多的背景信息反而可能帮倒忙。不仅浪费了有限的token还可能干扰模型的判断。想象一下你把所有公司文件堆在员工桌子上虽然你希望他能了解一切但他可能只需要翻开一两份文件就能完成任务。AI也是如此。这就是Cursor提出的“动态上下文发现”模式Dynamic Context Discovery不急着把信息全部塞给模型而是让模型根据需要自己去找。1. 动态上下文发现的五个优化技巧说到这里你可能会好奇具体怎么实现呢Cursor分享了五个他们实际使用的优化手段真的都挺巧妙的跟大家逐个分析一下。场景一长输出变成文件问题当AI调用外部工具比如运行shell命令或者调用MCP服务时返回的结果可能非常长比如一大串日志或整个网页的内容。传统做法是截断只保留一部分信息但这样可能错失后续需要的关键信息。Cursor的做法把长输出写成文件然后给AI一个读取文件的能力。这样AI可以根据需要用tail命令先看结尾若觉得有必要再往前读。既避免了浪费token也不丢失信息。场景二聊天历史变成可查档案问题如果对话历史太长超过了上下文窗口的限制通常我们会通过“总结”步骤压缩内容给AI但这会有信息丢失的风险导致AI无法记住重要细节。Cursor的做法将完整的聊天记录存成文件AI得到的是摘要但如果它意识到有遗漏它可以随时回溯查看原始记录。这就像你给员工发了一份会议纪要但完整的会议录音也存着——随时可以回头查找。场景三按需加载技能Cursor提出了“Agent Skills”的扩展机制也就是告诉AI如何处理特定领域任务的说明书。问题是这些说明书有很多不需要每次都加载所有。Cursor的做法在系统提示里只放技能的“目录”即技能的名字和简短描述。当AI需要某个技能时再通过搜索工具把完整的说明拉入。这就像你不需要背下整座图书馆只需要携带一本索引卡片。场景四MCP工具的瘦身术MCP是让AI连接外部服务的标准协议问题是有些MCP服务器提供的工具非常多且描述非常长占用上下文窗口的空间非常大。而且很多工具在一次任务中根本用不到。Cursor的做法只在提示词里放工具的名字完整描述保存在文件夹中。当AI需要用某个工具时它可以去查具体的使用说明。通过A/B测试这个策略帮助他们减少了46.9%的Token消耗几乎节省了一半的成本。场景五终端会话也是文件很多AI编程工具都会遇到一个问题——你可能问“我刚才那个命令为什么失败了”但AI根本不知道你运行过什么命令。你需要手动把终端输出复制粘贴给AI。Cursor的做法把集成终端的输出自动同步到本地文件系统。AI可以直接访问终端历史记录甚至能用grep等工具查找特定内容。这对于那些运行时间很长的服务日志来说特别实用。2. 为什么是“文件”你可能已经注意到Cursor的这五个优化技巧有一个共同点它们都是把信息转化成文件。为什么是文件而不是其他抽象形式呢Cursor的解释是我们不确定未来LLM工具的最佳接口是什么但文件是一个简单且强大的基础单元比发明一套新抽象要安全得多。这种思路与Manus的理念非常契合。Peak在Manus的技术博客《AI智能体的上下文工程构建Manus的经验教训》中提到过他们把文件系统当作“终极上下文”——无限容量、持久性强而且AI可以直接操作。一个网页的内容可以从上下文里删掉但只要URL还在AI随时能找回来一个文档的全文可以省略但只要路径还在AI随时可以加载。这种“可恢复的压缩”比简单的截断或删除更聪明也更高效。3. 个人思考从Cursor的实践中我们得到的一个启示是上下文工程的核心问题或许不是“怎么塞更多信息”而是“如何让模型高效地获取需要的信息”。随着AI能力的提升给模型更多主动权让它自己去获取和理解信息已经成为一种趋势。另一个启示是“简单抽象的力量”。在技术开发中我们常常迷恋复杂的设计但像文件这种经过时间检验的简单抽象往往比复杂的新发明更耐用。总结一句话模型足够聪明时少塞点信息、让它自己去找效果反而会更好。也许“少即是多”才是AI上下文管理的真谛。总结通过Cursor的《动态上下文发现》文章我们看到了一种更高效、更智能的上下文管理方式。传统的做法往往是尽可能将所有相关信息都塞进模型但随着AI模型的进步过多的上下文信息反而可能适得其反。Cursor的五个优化手段从长输出的文件化到按需加载技能再到MCP工具的瘦身都体现了“动态上下文发现”这一思路即让AI根据需要动态地去寻找相关信息而不是一开始就全部塞给它。这种方法不仅有效节省了计算资源降低了token消耗还能提高模型的灵活性和判断力。而将文件作为基础单元的设计也突显了简单抽象的力量提醒我们在复杂技术设计中往往最有效的方案是那些经得起时间考验的简单工具。总的来说随着AI技术的不断发展我们正在进入一个“让AI自己去找信息”的时代如何合理管理上下文、如何让AI在海量信息中快速准确地获取需要的内容已经成为提升AI系统性能的关键所在。那今天就聊到这里大家对Cursor的这些优化策略有什么看法呢欢迎留言交流