2026/1/12 3:16:50
网站建设
项目流程
网站上的图标用什么软件做的,wordpress页面创建,外网wordpress好慢,北京用网站模板建站大家好#xff0c;我是小肥肠#xff01;今天我们搞点真正的黑科技#xff0c;挑战一下大模型的“记忆极限”。针对AI写长文容易“失忆”的顽疾#xff0c;我用 n8n MemMachine 打造了一套“永不忘词”的无限长篇小说工作流。从大纲设定到自动连载#xff0c;字数无上限我是小肥肠今天我们搞点真正的黑科技挑战一下大模型的“记忆极限”。针对AI写长文容易“失忆”的顽疾我用n8n MemMachine打造了一套“永不忘词”的无限长篇小说工作流。从大纲设定到自动连载字数无上限剧情不崩坏一键直达飞书。想让你的 AI 进化成能写百万字的“网文大神”吗码住这篇教程带你零门槛实操起飞目录1. 效果演示2. 工作流架构剖析和前置准备2.1 长篇小说工作流架构说明2.2 基于Docker部署MemMachine3. 工作流搭建4. 结语1. 效果演示上周我写了一个写小说的工作流很多读者反馈能不能突破篇幅限制短篇小说不够看的。为了解决这个痛点我基于MemMachine实现了这个可以突破大模型上下文限制的n8n 无限长篇小说工作流。做出来以后在群里内测反馈相当不错。现在的工作流一共为两部分第一部分是将本地小说录入飞书素材库。有了这一步我们就可以基于自定义素材编写任意领域风格的小说。第二部分是读取素材库中的小说作为参考配合MemMachine记忆库编写长篇小说下图中写了整整16章。每章的字数在2000—3000字远远突破了大模型上下文限制。接下来就正式开始这个硬核工作流的搭建~2. 工作流架构剖析和前置准备2.1 长篇小说工作流架构说明长篇小说工作流主要依赖于MemMachine来存储章节的记忆每写完一章会将这章的内容存入记忆库下一章的编写可依赖这一章的内容。2.2 基于Docker部署MemMachineMemMachine是一个开源的AI 智能体通用记忆层Universal Memory Layer项目。简单来说它的目标是解决大语言模型LLM通常存在的失忆问题即无状态让 AI 智能体能够像人一样拥有长期记忆、个性化认知和上下文理解能力。现在的 AI 虽然聪明但非常健忘一旦关闭对话窗口或者换一个模型它就会把你以前说过的话和你的个人喜好忘得一干二净。MemMachine 就是为了解决这个问题而设计的一个外挂大脑它能像一个超级记事本一样自动把你的聊天记录、习惯偏好比如我不吃香菜和历史事件永久存储下来。这样做最大的好处是AI 拥有了长期记忆。哪怕你过段时间再回来或者换用了不同公司的 AI 模型只要连上这个系统AI 就能立刻想起来你是谁以及你们之前的交情不需要你重复啰嗦。它让 AI 从一个每次见面都要重新认识的陌生人变成了一个真正懂你、记得你一切过往的老朋友。源码地址https://github.com/MemMachine/MemMachine进入页面后我们就可以用git clone或下载压缩包的形式来下载源码了源码下载完后项目的目录如下图。只需要配置好.env、docker-compose.yml、configuration.yml这三个文件就可以基于Docker顺利部署MemMachine在本地了。MemMachine部署也很简单只需要在文件路径输出cmd在弹出的命令提示符中输入docker compose up -d即可完成部署。部署后可访问http://localhost:8080/docs看到如下界面即为成功。3. 工作流搭建这个小说工作流和原来的一样唯一的区别是加了MemMachine记忆写入和读取逻辑。这里就不再从头开始搭建只讲差异部分需要看从0开始的搭建步骤可以去看通吃网文投稿AI漫剧版权我用 n8n飞书搭了个“万字爆款小说流水线”长篇小说工作运行流程如下1. 表单提交小说主题和领域内容2. 根据用户提交表单中的小说领域去飞书素材库中找到对应小说素材作为写作参考3. 结合小说素材用户提供的主题编写小说的大纲和章节梗概列表数组形式4. 初始化一个MemMachineproject获得一个project_id5. 进入循环开始编写章节内容6. 根据project_id从MemMachine获取上一章节的内容7. 根据前期提要大纲和本章节的梗概编写本章节的详细内容8. 写入章节内容到飞书表格9. 总结本章节的内容以project_id为标识写入MemMachine初始化项目(HTTP Request)这个节点位于编写大纲节点的前面它的作用是在MemMachine中新建一个project后续编写的章节内容会存入到project中。跟之前的小说工作流比这个工作流的变动主要在章节编写部分故本文的节点搭建讲解主要围绕章节编写部分展开读取记忆HTTP Request这个节点的作用是根据project_id获取对应project中存储的记忆。举个例子如果当前章数为3那么就会从project中获取前2章的数据如果当前章数为1则返回空数据。获取章节梗概(Code inJavaScript)读取记忆HTTP Request节点出来后点击【】新增Code inJavaScript节点。它的作用是从前置所有章节列表中取出最后一章的章节内容。如读取记忆HTTP Request节点传入了2章数据那么这个节点就会获取第2章数据。章节编写AI Agent获取章节梗概(Code inJavaScript)节点出来后点击【】新增AI Agent节点。这个节点的作用是根据小说摘要第2章故事梗概与结尾和第三章故事梗概编写第三章内容这样就能完美解决大模型无法编写长篇小说以及内容过长导致的内容不连贯或人物OOC。Code1将数据改为飞书表格适配形式章节编写AI Agent节点出来后点击【】新增Code inJavaScript节点。这是一个代码节点它的作用是将小说内容适配为飞书表格的形式。写入飞书Bitable:table:record:add bitableCode1将数据改为飞书表格适配形式出来后点击【】新增Bitable:table:record:add bitable节点。这是n8n社区节点负责写入数据到飞书表格。节点的配置使用可参考n8nCoze飞书公众号对标文章一键录入深度拆解打造你的【爆款素材库】总结AI Agent写入飞书Bitable:table:record:add bitable节点出来后点击【】新增AI Agent节点。这个节点的作用是对章节编写AI Agent节点输出的小说内容进行总结总结剧情摘要保留结尾内容以便下一章的衔接。存入记忆HTTP Request总结AI Agent节点出来后点击【】新增HTTP Request节点。这个节点的作用是调用MemMachine接口将章节内容存入project。以上就是整个工作流的完整流程拆解动手能力强的读者可以跟着教程实践一遍。上述工作流已经被收录到了小肥肠行动家社群中如果想直接获取工作流原件可以加入社群后我拉你进空间直接学习使用。4. 结语至此一个能够自我迭代、拥有长期记忆的无限长篇小说生成器就搭建完成了。这套工作流最大的价值不在于写小说本身而在于它证明了MemMachine n8n组合的无限可能。当我们把记忆从大模型中解耦出来赋予 Agent 真正的长期状态管理能力时AI就不再是一个聊完即忘的聊天机器人而是一个能伴随剧情成长的创作者。如本次分享对你有帮助麻烦一键三连支持一下小肥肠我们下期再见~