新乡彩票网站建设wordpress下载弹窗
2026/2/17 17:52:00 网站建设 项目流程
新乡彩票网站建设,wordpress下载弹窗,南京时事重大新闻,汕头人第一阶段#xff1a; 先用 Naive RAG 进行粗召回。Naive RAG 在这里召回的不是一整本操作手册#xff0c;也不是随意的一段话#xff0c;而是知识库#xff08;Knowledge Base#xff09; 中具体的条目。Naive RAG 的任务是从成百上千条故障日志中#xff0c;快速筛选出一…第一阶段 先用 Naive RAG 进行粗召回。Naive RAG 在这里召回的不是一整本操作手册也不是随意的一段话而是知识库Knowledge Base中具体的条目。Naive RAG 的任务是从成百上千条故障日志中快速筛选出一批“大概率相关”的文档。为了进行筛选例如系统通常会先召回相关度最高的前 20 个文档Top-20作为候选 。这个列表是基于向量相似度排序的但可能包含一些不够精准的噪音数据所以被称为“粗”召回。粗召回的技术原理双流编码器 (Two-stream Encoder)为了得到这个列表Naive RAG 使用了双流编码器架构Query 编码将用户的查询例如“TCU2 通信故障转换器2被隔离可能是什么故障”转化成一个向量。Document 编码将上述清洗过的故障日志现象部位类型也转化成向量。匹配计算计算查询向量与文档向量之间的相似度通常是余弦相似度。输出输出相似度分数最高的那些文档即 Top-K 列表。第二阶段 引入一个重排序模型对检索回来的文档进行精细化的二次排序。Rerank重排序方法随后会接过这个列表用更精细的模型对这 20 条记录进行二次打分和排序把真正最相关的几条排到最前面丢弃不相关的。Naive RAG (粗召回)Bi-Encoder 架构在第一阶段粗召回系统为了快使用的是Bi-Encoder。机制Query 和 Document 是独立进入模型的。模型分别算出 Query 向量和 Document 向量。计算最后只计算两个向量的余弦相似度。缺点这种方式丢失了 Query 和 Document 之间词与词的精细交互信息。模型在处理 Document 时还没见到 Query所以只能提取一个泛泛的特征向量。Ranking Model (精细重排)Cross-Encoder 架构在第二阶段重排序数据量变少了比如只剩 20 条系统就可以使用更昂贵但更精准的Cross-Encoder。机制它将 Query 和 Document拼接在一起通常用[SEP]分隔作为一个整体输入到 BERT 等模型中。深度交互在模型内部Transformer 层Query 中的每一个词都能注意到 Document 中的每一个词Full Self-Attention。输出模型不输出向量而是直接通过一个线性层Linear Layer输出一个0 到 1 之间的相关性分数Score。按照什么“标准”排序精细化排序的标准不再是简单的“向量空间距离”而是**“深层语义匹配度”**。具体到这篇论文的故障诊断场景重排序模型会依据以下更深层的逻辑进行打分精确匹配 (Exact Term Matching)粗召回标准只要 Query 和 Document 都包含“故障”、“TCU”等词向量距离就很近。精细化标准重排序模型会看具体的修饰关系。例如Query 问的是“TCU2 通信故障”粗召回可能会拉回“TCU1 电源故障”因为词重叠度高但重排序模型通过全文注意力机制能识别出“TCU2”和“TCU1”的不匹配从而给“TCU1”的文档打低分。逻辑关系 (Logical Consistency)标准文档内容是否真的回答了问题如果 Query 是“导致转换器隔离的原因是什么”粗召回可能拉回包含“转换器隔离”这个词的所有文档包括描述现象的、描述结果的。重排序模型经过训练通常是在 MS MARCO 等数据集上微调过能更好地区分“原因”和“现象”的语境差异将真正解释“原因”的文档排在前面。实验中的具体流程输入InputQuery用户的问题。Candidate ListNaive RAG 粗召回的Top-20个文档 3。重排序Reranking Process模型将 Query 与这 20 个文档逐一配对(Query, Doc 1), (Query, Doc 2) ... (Query, Doc 20)。将这 20 对文本送入 Ranking Model 进行深度推理。模型输出 20 个新的相关性得分。截断Truncation/Output按照新得分从高到低排序。取前8 个对应 $k_{hr}8$或前10 个对应 $k_{hr}10$作为最终结果去计算命中率Hit Rate4。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询