2026/3/13 0:21:53
网站建设
项目流程
内江做网站的公司,a3电子报在什么网站做,门户网站开发的背景和意义,网站建设合同简单模板文章介绍了开源AI代理Clawdbot的持久记忆系统。该系统采用本地Markdown存储#xff0c;结合向量搜索和BM25关键字检索#xff0c;构建双层记忆架构#xff08;每日日志长期记忆#xff09;。系统支持自动压缩、记忆刷新和会话管理#xff0c;确保信息持久性和上下文连贯性…文章介绍了开源AI代理Clawdbot的持久记忆系统。该系统采用本地Markdown存储结合向量搜索和BM25关键字检索构建双层记忆架构每日日志长期记忆。系统支持自动压缩、记忆刷新和会话管理确保信息持久性和上下文连贯性。这种透明、可编辑的记忆架构使AI能够24/7保留对话历史自主处理现实任务并建立长期交互关系为大模型应用提供了重要参考。Clawdbot已经彻底疯狂了github达到79.5kstar以至于火到被迫改名了moltbotClawdbot 的独特之处在于它能够自主处理现实世界的任务管理电子邮件、安排日历事件、处理航班值机以及按计划运行后台任务。但真正引起人注意的是它的持久记忆系统该系统保持 24/7 的上下文保留无限期地记住对话并建立在前一次互动的基础上。Clawdbot 采用了一种根本不同的方法它不是基于云端、由公司控制的记忆而是将一切都保留在本地让用户完全拥有自己的上下文和技能。上下文是如何构建的在深入探讨记忆之前让我们先了解一下模型在每个请求中看到的内容[0] 系统提示静态 条件指令[1] 项目上下文引导文件AGENTS.md、SOUL.md 等[2] 对话历史消息、工具调用、压缩摘要[3] 当前消息系统提示定义了代理的功能和可用工具。与记忆相关的是项目上下文其中包括注入到每个请求中的用户可编辑的 Markdown 文件文件用途AGENTS.md代理指令包括记忆指南SOUL.md个性和语气USER.md关于用户的信息TOOLS.md外部工具的使用指南这些文件与记忆文件一起存在于代理的工作区中使整个代理配置透明且可编辑。上下文与记忆理解上下文和记忆之间的区别是理解 Clawdbot 的基础。上下文是模型对单个请求所看到的一切上下文 系统提示 对话历史 工具结果 附件上下文是短暂的- 仅在此请求期间存在有界的- 受模型的上下文窗口限制例如200K 个 token昂贵的- 每个 token 都计入 API 费用和速度记忆是存储在磁盘上的内容记忆 MEMORY.md memory/*.md 会话记录记忆是持久的- 即使重启、数天、数月也能存活无界的- 可以无限增长廉价的- 存储无需 API 费用可搜索的- 为语义检索建立索引代理通过两个专门的工具访问记忆memory_search用途在所有文件中查找相关记忆返回结果memory_get用途在找到后读取特定内容返回结果写入记忆没有专门的memory_write工具。代理使用标准的write和edit工具写入记忆它将这些工具用于任何文件。由于记忆只是 Markdown你也可以手动编辑这些文件它们会自动重新索引。写入位置的决定是通过AGENTS.md提示驱动的触发条件目标位置日常笔记“记住这个”memory/YYYY-MM-DD.md持久的事实、偏好、决策MEMORY.md经验教训AGENTS.md或TOOLS.md在预压缩刷新和会话结束时也会发生自动写入在后面的部分中介绍。记忆存储Clawdbot 的记忆系统建立在“记忆是代理工作区中的纯 Markdown”的原则之上。两层记忆系统记忆存在于代理的工作区中默认~/clawd/第 1 层每日日志memory/YYYY-MM-DD.md这些是仅追加的每日笔记代理全天都会在这里写入。当代理想要记住某事或被明确告知记住某事时代理会写入此处。第 2 层长期记忆MEMORY.md这是经过策划的、持久的知识。当重要事件、想法、决策、意见和经验教训被学习时代理会写入此处。代理如何知道读取记忆AGENTS.md文件自动加载包含指令记忆如何被索引当你保存一个记忆文件时幕后会发生以下情况sqlite-vec是一个 SQLite 扩展可直接在 SQLite 中启用向量相似性搜索无需外部向量数据库。FTS5是 SQLite 内置的全文搜索引擎支持 BM25 关键字匹配。它们一起允许 Clawdbot 从单个轻量级数据库文件运行混合搜索语义 关键字。如何搜索记忆当你搜索记忆时Clawdbot 会并行运行两种搜索策略。向量搜索语义查找含义相同的内容BM25 搜索关键字查找具有确切标记的内容。结果通过加权评分组合finalScore (0.7 * vectorScore) (0.3 * textScore)为什么是 70/30语义相似性是记忆回忆的主要信号但 BM25 关键字匹配可以捕获向量可能遗漏的确切术语名称、ID、日期。低于minScore阈值默认 0.35的结果将被过滤掉。所有这些值都是可配置的。这可确保无论你是在搜索概念“那个数据库东西”还是具体内容“POSTGRES_URL”都能获得良好的结果。多代理记忆Clawdbot 支持多个代理每个代理都具有完整的记忆隔离Markdown 文件真实来源存在于每个工作区中而 SQLite 索引派生数据存在于状态目录中。每个代理都有自己的工作区和索引。记忆管理器由agentId workspaceDir键控因此不会自动发生跨代理记忆搜索。代理可以读取彼此的记忆吗默认情况下不可以。每个代理只能看到自己的工作区。然而工作区是一个软沙箱默认工作目录而不是硬边界。除非你启用严格的沙箱否则代理理论上可以使用绝对路径访问另一个工作区。这种隔离对于分离上下文很有用。一个用于 WhatsApp 的“个人”代理和一个用于 Slack 的“工作”代理每个代理都有不同的记忆和个性。压缩每个 AI 模型都有上下文窗口限制。Claude 有 200K 个 tokenGPT-5.1 有 1M 个。长时间的对话最终会触及这个上限。发生这种情况时Clawdbot 会使用压缩将较旧的对话总结为一个紧凑的条目同时保持最近的消息不变。自动与手动压缩自动在接近上下文限制时触发你会看到 自动压缩完成在详细模式下原始请求将使用压缩后的上下文重试手动使用/compact命令/compact 关注决策和未决问题与某些优化不同压缩会持久化到磁盘。摘要会写入会话的 JSONL 记录文件因此将来的会话会从压缩后的历史记录开始。记忆刷新基于 LLM 的压缩是一个有损过程。重要信息可能会被总结掉并可能丢失。为了解决这个问题Clawdbot 使用了压缩前的记忆刷新。记忆刷新可在clawdbot.yaml文件或clawdbot.json文件中配置。修剪工具结果可能非常庞大。单个exec命令可能会输出 50,000 个字符的日志。修剪可以在不重写历史记录的情况下修剪这些旧输出。这是一个有损过程旧输出无法恢复。缓存 TTL 修剪Anthropic 将提示前缀缓存最多 5 分钟以减少重复调用的延迟和成本。在 TTL 窗口内发送相同的提示前缀时缓存的 token 成本降低约 90%。TTL 过期后下一个请求必须重新缓存整个提示。问题如果会话在 TTL 之后处于空闲状态下一个请求将丢失缓存并且必须以完整的“缓存写入”价格重新缓存完整的对话历史记录。缓存 TTL 修剪通过检测缓存何时过期并在下一个请求之前修剪旧工具结果来解决此问题。较小的提示重新缓存意味着更低的成本会话生命周期会话不会永远持续。它们会根据可配置的规则重置为记忆创建自然的边界。默认行为是每天重置。但还有其他模式可用。模式行为daily在固定时间重置默认当地时间凌晨 4 点idle在 N 分钟不活动后重置dailyidle以先到者为准会话记忆钩子当你运行/new开始新会话时会话记忆钩子可以自动保存上下文结论Clawdbot 的记忆系统之所以成功是因为它遵循了几个关键原则透明胜过黑盒记忆是纯 Markdown。你可以阅读它、编辑它、对其进行版本控制。没有不透明数据库或专有格式。搜索胜过注入代理搜索相关内容而不是用所有内容填充上下文。这使上下文保持专注并降低成本。持久性胜过会话重要信息以文件形式保存在磁盘上而不仅仅存在于对话历史中。压缩无法破坏已保存的内容。混合胜过纯仅向量搜索会遗漏完全匹配。仅关键字搜索会遗漏语义。混合搜索两者兼得。最后我在一线科技企业深耕十二载见证过太多因技术更迭而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我整理出这套 AI 大模型突围资料包✅AI大模型学习路线图✅Agent行业报告✅100集大模型视频教程✅大模型书籍PDF✅DeepSeek教程✅AI产品经理入门资料完整的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】为什么说现在普通人就业/升职加薪的首选是AI大模型人工智能技术的爆发式增长正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议到全国两会关于AI产业发展的政策聚焦再到招聘会上排起的长队AI的热度已从技术领域渗透到就业市场的每一个角落。智联招聘的最新数据给出了最直观的印证2025年2月AI领域求职人数同比增幅突破200%远超其他行业平均水平整个人工智能行业的求职增速达到33.4%位居各行业榜首其中人工智能工程师岗位的求职热度更是飙升69.6%。AI产业的快速扩张也让人才供需矛盾愈发突出。麦肯锡报告明确预测到2030年中国AI专业人才需求将达600万人人才缺口可能高达400万人这一缺口不仅存在于核心技术领域更蔓延至产业应用的各个环节。资料包有什么①从入门到精通的全套视频教程⑤⑥包含提示词工程、RAG、Agent等技术点② AI大模型学习路线图还有视频解说全过程AI大模型学习路线③学习电子书籍和技术文档市面上的大模型书籍确实太多了这些是我精选出来的④各大厂大模型面试题目详解⑤ 这些资料真的有用吗?这份资料由我和鲁为民博士共同整理鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。所有的视频教程由智泊AI老师录制且资料与智泊AI共享相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念通过动态追踪大模型开发、数据标注伦理等前沿技术趋势构建起前沿课程智能实训精准就业的高效培养体系。课堂上不光教理论还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事如果说你是以下人群中的其中一类都可以来智泊AI学习人工智能找到高薪工作一次小小的“投资”换来的是终身受益应届毕业生无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界。业务赋能 突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】**