深圳积分商城网站设计商丘网站推广
2026/2/27 16:19:31 网站建设 项目流程
深圳积分商城网站设计,商丘网站推广,优化一个网站多少钱,重庆的网站设计公司价格为什么有些AI Agent能记住你上周说过喜欢川菜#xff0c;并在今天推荐餐厅#xff1f;秘密就在于记忆机制——这是让LLM从聊天机器人进化为智能体#xff08;Agent#xff09;的核心组件。本文将解读《A Survey on the Memory Mechanism of Large …为什么有些AI Agent能记住你上周说过喜欢川菜并在今天推荐餐厅秘密就在于记忆机制——这是让LLM从聊天机器人进化为智能体Agent的核心组件。本文将解读《A Survey on the Memory Mechanism of Large Language Model based Agents》这篇论文说明LLM-based Agent的记忆机制并拆解AI记忆的存储-管理-检索全链路.一、为什么Agent必须拥有记忆在传统的LLM交互中每次对话都是独立的。但现实中的智能体需要持续学习和自我进化应用场景示例如图所示无论是帮Alice规划北京之旅任务A还是推荐电影任务BAgent都需要记住之前的对话如Alice偏好9点看电影积累跨任务经验从任务A了解Alice喜欢古建筑在任务B推荐相关纪录片调用外部知识查询实时航班信息、景点开放时间没有记忆Agent就像金鱼——每次互动都从零开始无法形成个性化服务更无法在复杂环境中自我提升。1.1 认知心理学视角人类依靠记忆来•积累知识通过经验抽象出Alice是上班族周末才有空这样的高层概念•形成社会规范记住文化价值观如推荐餐厅时要考虑预算•行为决策想象行为的正负后果“如果推荐恐怖片Alice可能会不高兴”1.2 自我进化视角记忆支持Agent的三种核心能力•经验积累记住失败的预订如选错机场避免重蹈覆辙•环境探索根据历史探索记录决定下一步尝试优先探索未去过的地方•知识抽象从Alice上周吃川菜很开心抽象出Alice喜欢辣二、记忆的数学定义狭义 vs 广义设任务为 第个任务的第步的动作为环境反馈为。2.1 狭义记忆Inside-trial仅包含当前任务内的历史交互局限每次任务结束就失忆无法跨任务学习。2.2 广义记忆Broad Definition包含三个维度其中• 同任务历史当前尝试中的步骤记录• 跨任务经验之前失败或成功的类似任务• 外部知识维基百科、实时API、专业知识库举例说明Agent自进化过程假设Agent先为Alice规划了北京游任务A之后为她推荐电影任务B。在任务B的Step 3中Agent的决策函数为这里是写入函数是管理函数是读取函数。Agent通过检索到任务A中Alice选择了故宫和颐和园跨任务记忆推断出她喜欢历史文化于是推荐《长安三万里》而非《星际穿越》。三、记忆系统架构拆解论文提出构建记忆系统需回答三个问题从哪来存哪怎么用基于LLM的Agent记忆的来源、形式和操作概述3.1 记忆从哪来Memory Sources论文将记忆来源分为三类来源类型技术实现典型案例关键挑战Trial内信息直接存储原始交互或压缩摘要MemoChat存储对话历史信息噪声过滤如何提取关键事实跨Trial信息反思总结Reflection 经验回放Reflexion将失败原因总结为自然语言教训相似任务识别经验泛化外部知识API调用 向量数据库索引ReAct调用维基百科API信息可靠性验证多源知识冲突解决技术细节跨Trial记忆的实现以Reflexion为例其工作流程如下执行Agent尝试任务生成轨迹Trajectory评估环境给出成功/失败信号反思LLM生成文字总结“失败原因未确认机场代码。教训上海有两个机场必须询问用户偏好虹桥(PVG)还是浦东(SHA)”存储将反思文本存入记忆库重用下次遇到订票任务时检索到该反思 prepend到Prompt中3.2 记忆存哪Memory Forms方案A文本记忆Textual Memory将信息以自然语言、数据库或结构化文本存储。细分为四种实现策略① 完整记录Complete Interactions直接将所有历史拼接进Prompt。•技术实现prompt 历史记录[Step 1]...[Step 2]... 当前问题...•代表模型LongChat支持16K上下文•致命缺陷• 计算复杂度Transformer自注意力机制• Lost in the Middle现象LLM对长文本中间部分注意力衰减• 上下文长度限制② 近期缓存Recent Interactions滑动窗口机制只保留最近轮。•技术实现队列Queue数据结构FIFO淘汰•代表模型SCMSelf-Controlled Memory使用Flash Memory缓存最近步观察•类比人类短期记忆工作记忆容量有限7±2原则③ 检索式Retrieved Interactions将记忆编码为向量按需检索Top-K相关。•技术实现流程索引阶段使用Embedding模型如BERT、Ada-002将记忆文本转为向量存入FAISS/Annoy向量数据库检索阶段将当前查询向量化计算余弦相似度召回最相关的条重排序结合时间衰减Recency和重要性Importance加权•代表模型•Generative Agents使用双塔模型Two-Tower编码记忆支持基于相似度、时间、重要度的复合检索•MemoryBank使用FAISSFacebook AI Similarity Search实现高效近似最近邻搜索ANNS•RET-LLM使用LSHLocality-Sensitive Hashing局部敏感哈希加速检索将相似记忆映射到同一哈希桶④ 外部知识External Knowledge通过工具调用Tool Use动态获取。•技术实现 plaintextif “天气” in query: weather_data call_api(“OpenWeatherMap”, location) memory.inject(weather_data)•代表模型ReAct、Toolformer、TPTU文本记忆优缺点分析•优点可解释性强人类可读可编辑、写入速度快直接Append、支持精确删除•缺点• 检索噪声可能召回表面相关但语义无关的记忆如苹果公司 vs 苹果水果• 上下文占用即使只检索Top-3仍占用数百Token方案B参数记忆Parametric Memory将知识编码进模型参数。分为两类① 微调Fine-tuning/SFT在领域数据上训练模型。•技术细节• 全量微调更新所有参数成本高易灾难性遗忘• LoRALow-Rank Adaptation冻结原参数注入低秩矩阵适合消费级GPU•代表模型•Huatuo在LLaMA-7B上使用中文医学知识库SFT注入CMeKG中国医学知识图谱•Character-LLM使用角色相关对话数据SFT让模型内化角色人格•InvestLM金融投资数据微调记忆专业术语和投资策略② 知识编辑Knowledge Editing针对性修改特定事实不影响其他知识。•技术原理定位知识在模型中的存储位置定位-编辑两阶段•定位使用因果中介分析Causal Mediation Analysis找到关键层和神经元•编辑修改特定参数或添加约束•代表方法•MEND训练超网络Hypernetwork生成参数更新将编辑转化为元学习问题•ROMERank-One Model Editing在特定层进行秩一矩阵更新•MAC使用元学习实现在线记忆适应无需反向传播即可更新记忆参数记忆优缺点分析•优点• 零上下文占用推理时不需要额外Prompt• 信息密度高连续向量空间 vs 离散Token空间• 推理速度快无需检索延迟•缺点• 不可解释黑盒• 编辑副作用可能引发邻居扰动编辑苹果CEO时意外改变苹果颜色的知识• 在线更新难SFT需要大量数据知识编辑难以处理大规模记忆3.3 记忆怎么用Memory Operations完整的记忆生命周期包含三个操作① 写入Writing将原始观察压缩为记忆存储。技术实现策略•原始存储直接存储JSON格式{action: 订机票, observation: 用户选择虹桥机场, timestamp: 2024-01-20}•摘要提取使用LLM生成摘要例将长对话用户问了很多关于北京的问题最后选择了故宫…“压缩为用户偏好古建筑”•结构化提取抽取实体关系三元组Entity-Relation-Entity例(Alice, 喜欢, 川菜), (Alice, 厌恶, 恐怖片)代表模型•TiMThink-in-Memory将观察提取为关系对存入数据库•ChatDB生成SQL语句将记忆写入关系型数据库支持复杂查询② 管理Management对记忆进行处理提升质量。a. 反思Reflection——生成高层抽象Generative Agents的实现细节触发条件当积累个新观察通常时触发反思生成问题“给定这些观察Alice的核心偏好是什么”抽象输出生成Alice是历史爱好者、Alice预算敏感等高层概念递归反思对反思结果再次反思形成概念层级如历史爱好者→文化旅行者b. 合并Merging——去重与聚类•技术实现使用聚类算法如K-means或相似度阈值将Alice喜欢川菜和Alice爱吃辣合并为一条记忆•代表模型MemoryBank使用语义相似度检测冗余c. 遗忘Forgetting——模拟人类记忆衰减遵循Ebbinghaus遗忘曲线其中是记忆强度。•实现方式为每条记忆添加时间戳和重要性分数定期清理低于阈值的记忆•代表模型Generative Agents使用重要性评分Importance ScoreRecAgent模拟人类记忆衰退③ 读取Reading根据上下文检索相关记忆。技术实现•稀疏检索TF-IDF、BM25适合关键词匹配•密集检索向量相似度适合语义匹配•混合检索稀疏密集如ChatDB使用SQL向量检索高级技巧•Chain-of-MemoryChatDB生成SQL查询链分步检索先查用户偏好再查具体记录•记忆过滤MPCMemory Prompt Compression使用Chain-of-Thought示例教模型忽略不相关记忆四、如何评价记忆系统评估大类评估维度具体指标评估方法/说明计算公式/实验设置案例/备注直接评估客观指标结果正确率 (Result Correctness)构造问答对测试记忆准确性ChatDB论文设置从历史记录生成问题如Alice昨天去了哪里选项A.故宫 B.长城要求Agent仅基于记忆回答引用准确率 (Reference Accuracy)评估检索质量使用F1分数问题“Alice喜欢什么菜系” 理想检索(A)“Alice昨天吃了川菜”相关、©Alice讨厌粤菜相关但负面 应忽略(B)“Alice昨天吃了晚饭”无关效率指标适应时间写入管理的延迟MemoryBank报告为毫秒级推理时间检索延迟FAISS可在毫秒级检索百万级向量硬件成本峰值GPU显存占用参数记忆需加载完整模型文本记忆只需加载Embedding模型主观评估一致性 (Coherence)人类标注员评分检索的记忆与当前上下文逻辑是否连贯招募人类标注员进行评分定性评估合理性 (Rationality)人类标注员评分记忆内容是否符合常识招募人类标注员进行评分避免Alice住在月球等不合理内容间接评估下游任务对话一致性使用GPT-4作为评判检测Agent回复是否与历史矛盾GPT-4自动评判如前面说Alice怕辣后面却推荐火锅长文本大海捞针 (Needle-in-Haystack)在长文档中插入关键信息测试后续回忆能力在100页文档中插入关键信息如Alice的生日是3月15日测试Agent能否在后续对话中准确回忆该信息成功率 (Success Rate)在仿真环境中统计Agent完成任务的比例对比有记忆vs无记忆的基线差异AlfWorld家庭机器人仿真环境、Minecraft等环境五、记忆驱动的Agent应用六、工程化实现将记忆拆分为三层模型层级名称定义/实现方式核心特点持续时间/容量第一层感知记忆(Sensory Memory)暂存原始多模态信息 (文本、图像、音频等)• 容量极小 • 信息若不立即处理即消失极短几秒内第二层短期记忆(Short-term Memory)主要通过上下文窗口(Context Window)• 主动处理信息 • 需优化策略扩展容量有限依赖窗口大小第三层长期记忆(Long-term Memory)持久化存储可跨会话访问• 容量大 • 需解决存储与检索效率永久短期记忆解决方案方法核心原理技术特点滑动窗口(Sliding Window)保留最近N轮对话丢弃早期信息简单直接只保留最近token数量摘要压缩(Summary Compression)将早期对话压缩为摘要• ChatBC定期压缩对话历史 • MemGPT分交互上下文(当前)和Agent上下文(压缩历史)检索增强(RAG)用户查询→检索文档→插入上下文→生成不直接存储历史按需检索相关信息长期记忆存储方式存储方式原理关键技术/方法主要挑战参数化记忆知识存储在模型参数中 (通过微调)• EWC (弹性权重巩固) • 梯度投影法 • 回放法灾难性遗忘(学习新任务时忘记旧知识)非参数化记忆记忆存储在外部数据库A. 向量数据库• Embedding模型 • 相似度检索B. 结构化数据库• 键值对存储检索精度、存储效率混合记忆架构结合多种存储方式• 向量检索结构化规则 • 知识图谱向量库系统复杂度向量数据库技术细节技术环节具体实现代表模型/方法文本向量化文本→Embedding模型→高维向量• BERT系列 • SimCSE • E5 • OpenAI Embeddings存储系统向量数据库• FAISS • Pinecone • ChromaDB检索策略•密集检索向量相似度 •稀疏检索TF-IDF/BM25 •混合检索两者结合• Dense: Karpukhin et al. • Sparse: Robertson Zaragoza • Hybrid: Dai Callan重排序(Reranking)初次检索后用精确模型重排• 步骤1BM25检索top-100 • 步骤2Cross-Encoder重排top-10 • 步骤3输入LLM将记忆机制拆分为五大工程模块模块核心功能关键技术主要挑战决策公式/阈值写入(Write)将交互信息编码并持久化• Embedding编码 • 元数据标注 • 触发器机制如何判断重要性 避免存储膨胀score importance × (10.1×repeat) × decay存储(Store)高效存储与索引向量数据• 向量数据库 • ANN算法 • 混合索引平衡召回率与延迟 海量数据内存占用HNSW(在线)/IVFPQ(离线)检索(Retrieve)从记忆库召回相关信息• DenseSparse混合 • Cross-Encoder重排 • 时间加权上下文长度限制 噪声过滤先召回200→重排→选top-k更新(Update)合并重复、摘要历史• 语义聚类 • 增量摘要合并时机与粒度控制定期聚类(天/周)遗忘(Forget)清理低价值记忆• 多因子评分 • LRU/LFU避免误删重要信息score 0.5×importance 0.4×freq - 0.1×age写入模块 (Write / Encoding)维度实现方案技术细节与建议触发时机多维度触发器•显式事件用户保存指令、关键确认语句(“记住我喜欢X”) •频次触发同一信息被重复提及N次 •模型判定判别器预测重要度阈值编码方式Embedding 元数据• 文本→Embedding模型→高维向量 •归一化保留normalized embedding确保余弦相似度稳定 •元数据timestamp、source、重要度评分、主题标签、模型版本切分粒度语义完整性优先• 对话粒度按句/按轮/按主题切分 •长文本处理滑动窗口或基于语义的chunking质量控制过滤-摘要-评分• 使用小型分类器预测重要性 • 避免全部写入导致的噪声与存储膨胀存储模块 (Store)维度技术选型策略与优化存储介质分层存储架构•热数据内存向量库(FAISS/Milvus/Weaviate) •冷数据磁盘/对象存储(低成本) •元数据传统数据库倒排索引向量索引ANN算法选择•HNSW高召回、低延迟适合在线检索•IVFPQ海量数据下显著降低内存占用混合索引向量倒排• 向量索引语义相似度 • 倒排索引精确匹配(user_id、topic等字段联合筛选)元数据字段结构化标注user_id、timestamp、topic、importance、source_id、embedding_model_version检索模块 (Retrieve)环节技术方案实现细节召回阶段混合检索 (Dense Sparse)1.BM25/ES先做精确匹配和关键词过滤 2.向量检索ANN搜索语义候选(top-200) 3.合并去重融合两种检索结果精排阶段Cross-Encoder重排序• 使用较小Transformer对候选评分 • 仅对top-N(N≈50)应用控制延迟 • 按任务相关性重新排序Prompt组装多策略选择•语义优先按cross-encoder得分选top-k •时间加权近期事件提升分数(避免过时) •压缩注入每条记忆生成一行summary再拼接检索时机策略驱动每轮问答时自动触发或特定策略驱动更新模块 (Update / Consolidation)维度策略实现细节更新目标记忆优化• 合并重复条目 • 摘要历史交互(抽象化) • 提升长期重要信息权重聚类合并定期批量处理•周期每天/每周对情节层聚类 •操作主题一致条目合并为摘要替换冗余数据增量更新实时冲突检测• 新事件命中已有条目(高相似度)时 - 方案A追加为子条目 - 方案B生成新摘要替换旧条目遗忘模块 (Forgetting / Pruning)维度策略实现细节遗忘理由系统优化• 控制存储成本 • 降低检索噪声 • 避免过拟合历史错误信息多因子评分综合衰减模型score α×importance β×access_freq - γ×age• importance初始重要度 • access_freq访问频次(常用提升) • age时间衰减(天)淘汰策略分层淘汰•热缓存层LRU(最近最少使用)或LFU(最少频次) •冷存储层阈值删除或归档迁移冲突检测一致性维护发现信息矛盾时降权或标记删除结语对于AI Agent而言没有记忆就没有真正的智能。记忆工程Memory Engineering将成为LLM应用开发的必备技能。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询