2026/2/21 12:18:26
网站建设
项目流程
电商网站开发前景,注册公司大概需要多少钱,网站域名备案系统,介绍网络营销在agent开发中短期记忆、长期记忆、对话历史也算是耳熟能详的概念了#xff0c;一开始我一直很迷惑#xff0c;经过一些时间的实践和探索#xff0c;得出了一些结论#xff0c;今天就用十分凝练易懂的方式让你5分钟贯通。
什么是短期记忆、长期记忆、对话历史#xff1f;…在agent开发中短期记忆、长期记忆、对话历史也算是耳熟能详的概念了一开始我一直很迷惑经过一些时间的实践和探索得出了一些结论今天就用十分凝练易懂的方式让你5分钟贯通。什么是短期记忆、长期记忆、对话历史他们在agent运行的过程中起到什么作用彼此之间如何相互配合运作一、概念简介其实对话记忆这些在简单的chat_bot场景、work_flow中也是经常用到的不止局限于agent场景可以把思路打开。下面我来介绍他们的概念和作用。短期记忆所谓短期记忆就是llm所读取的上下文这部分记忆长度有限受模型上下文窗口的限制目前市面上主流大模型的上下文基本都在128k短期记忆需要高频次读写所以一般存储在内存当中但是并非绝对也可以做持久化处理。由于存储在内存中这就导致短期记忆具有临时性、线程性、会话性这些特点线程重启或对话关闭便会丢失并且不可打破对话边界。在我们开发agent的过程中常用的一些开发框架比如langchain都有对应的组件其中的ChatMessageHistory是所有高级记忆组件的底层依赖本质是对「List[BaseMessage]」的轻量封装提供增、删、查、清空消息列表的便捷方法支持内存中临时存储消息 。BaseMessage是所有消息对象的基类长期记忆长期记忆是突破会话边界、可持久化存储、能按需检索复用的非临时信息集合核心作用是让 AI 具备跨时间、跨会话的 “持续认知能力”而非仅局限于当前对话的上下文。 在长期记忆中不仅可以存储对话历史更可以对用户的偏好进行总结存储让agent在与用户交互的过程中更贴近用户的需求。长期记忆可以保障llm即使经过多轮对话或者超长时间跨度依然可以“想起”曾经的内容与短期记忆结合构成一个相对完整的记忆体系。Gemini就会对用户的偏好、特性进行总结记忆比方说他会从我跟他的交互历史中判断出我的职业是程序员并且主要从事agent开发那么后续的一些对话中他的回答就会考虑这些当然这点的好坏其实是具有辩证性的当我们问一些行业相关的东西他会根据你的职业给出针对性的建议显然体验很好但是问一些日常问题他也会使用程序员思维来回答你这就有点没必要了。对话历史很奇怪吧为什么我上面说“短期记忆长期记忆”只是相对完整的记忆体系为什么我要提出对话历史这个概念呢因为一个成熟可工程化落地的项目中短期记忆和长期记忆都是依托于对话历史的。我这里说的对话历史是完整的、全量的用户和agent交互记录包括思考过程、工具调用等所有的信息。用几个场景就能让你明白对话历史的重要性。场景1:用户与模型对话了200轮远超模型上下文窗口需要多次压缩投喂给ai已经损失很多内容了但是用户视角来看内容依然是完整的这里前端上下文的加载展示需要全量完整的对话历史场景2:用户关闭了对话下次对话开始时短期记忆因为存储在内存中完全丢失但是用户继续询问他依然有当时的记忆ai的记忆从哪里来的全部从长期记忆中找的吗不是的长期记忆存了多次对话的信息记录的内容更半结构化、个性化并且已经经过一次压缩抽取内容多、杂如果再加载到llm对话上下文中还需要压缩会丢失很多信息并且会存在上下文语意不连贯的问题。那怎么办——根据完整对话历史进行总结加载到当前上下文中构建短期记忆可以保证语意连贯避免碎片化信息场景3:用户跟大模型对话快要超出模型上下文窗口时进行短期记忆压缩构建长期记忆时怎么办用压缩后的短期记忆 肯定不行啊还是上面的问题两次压缩总结丢失内容这个时候就需要原始的对话历史来构建长期记忆了总结来说对话历史的作用是向用户展示对话历史会话重启后重构短期记忆在交互过程中构建长期记忆二、他们三者如何相互配合运作对话进行时运作流程示意用户和ai的每一条消息都会被实时同步到数据库中结构化存储当对话超出我们预设的对话压缩的阈值时对短期记忆进行压缩这时是对内存中的对话历史进行压缩。每过n轮自动触发长期记忆归档将传统数据库中的最近的n轮对话进行半结构化归档存入向量数据库作为长期记忆。对话重启后运作流程示意当对话被关闭内存中的上下文都会被清空重新进行对话时要从传统数据库中读取历史消息进行总结加载到上下文列表中与此同时也返回给前端用于展示。当用户的query到达大模型以后按需求去向量数据库检索信息将召回的内容填入上下文一个专属的长期记忆区域RAG注意在上下文窗口中将长期记忆和短期记忆分开是必要的具体原因后面的文章会细讲三、总结在 Agent 开发的工程实践中三者的关系可总结为对话历史是数据底座短期记忆是逻辑现场长期记忆是知识资产。核心协作逻辑提炼数据流向对话历史Source→\rightarrow→ 实时落库作为最原始的真值来源。短期记忆Runtime→\rightarrow→ 从对话历史截取/总结维持当前任务的推理连贯性。长期记忆Asset→\rightarrow→ 从对话历史中异步提取Extraction实现跨会话的个性化对齐。核心差异表维度短期记忆 (STM)长期记忆 (LTM)对话历史 (History)存储载体内存 / Redis向量数据库 (Pinecone/Milvus)关系型数据库 (MySQL/PG)主要功能维持当前会话逻辑跨会话偏好对齐 知识检索审计、回放、数据加工更新频率随每轮对话实时读写异步/周期性抽取更新随消息实时追加开发者金律不要信任单一记忆短期记忆会因长度溢出而丢失长期记忆会因检索精度而产生偏差必须依赖对话历史进行动态重构。显式上下文路由在 Prompt 构建中必须通过结构化标签明确区分[当前对话]与[召回背景]避免模型产生角色或时序上的认知混淆。一句话贯通对话历史记录了“发生了什么”长期记忆提炼了“你是谁”短期记忆决定了“现在该做什么”。学习资源推荐如果你想更深入地学习大模型以下是一些非常有价值的学习资源这些资源将帮助你从不同角度学习大模型提升你的实践能力。一、全套AGI大模型学习路线AI大模型时代的学习之旅从基础到前沿掌握人工智能的核心技能因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取二、640套AI大模型报告合集这套包含640份报告的合集涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取三、AI大模型经典PDF籍随着人工智能技术的飞速发展AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型如GPT-3、BERT、XLNet等以其强大的语言理解和生成能力正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取四、AI大模型商业化落地方案作为普通人入局大模型时代需要持续学习和实践不断提高自己的技能和认知水平同时也需要有责任感和伦理意识为人工智能的健康发展贡献力量。