RAG as Cognitive Memory: 检索增强生成的工程实践

RAG as Cognitive Memory: 检索增强生成的工程实践

系列第 9 篇。上一篇我们讨论了 Agent 的记忆架构——会话状态、短期记忆与长期记忆。本篇聚焦长期记忆中最核心的工程问题:如何让 Agent 在海量知识中精准找到它需要的信息。

核心命题:检索质量 > 模型大小。 一个用 GPT-3.5 + 优秀 RAG 的系统,往往比 GPT-4 + 粗糙检索的系统表现更好。RAG 是工程问题,不是模型问题。


1. RAG 不是"搜索+拼接"

很多团队对 RAG 的理解停留在"把搜索结果塞进 prompt"这一层。这种理解会导致系统质量的天花板极低。

RAG 的本质是 Agent 的认知记忆系统。人类回答问题时,不是把大脑里所有信息倒出来再筛选——而是根据问题的语义,精准地从记忆中提取相关片段,重新组织后输出回答。RAG 做的事情完全一样:理解 Query 的意图,从知识库中检索最相关的上下文,以最优的方式组织给 LLM,让它生成有据可依的回答。

这个过程中,每一个环节都会影响最终质量:

  • Chunking 策略决定了知识的粒度——切得不好,语义被割裂,检索再准也没用
  • Embedding 质量决定了语义理解的上限——模型选错了,同义词都搜不到
  • 检索策略决定了召回的完整性——只用向量搜索,专有名词和 ID 就会丢失
  • Reranking决定了精排的准确性——Top 100 召回可能很好,但 Top 5 的排序决定了 LLM 看到什么
  • Context Packing决定了 LLM 的信息利用率——塞太多噪声,LLM 反而会被干扰

一个工程事实:在大多数 RAG 系统中,80% 的质量问题出在检索侧,而非生成侧。 换一个更贵的模型不如把检索做好。


2. RAG Pipeline 全景图

一个生产级 RAG 系统的完整数据流如下:

┌─────────────────────────────────────────────────────────────────────┐
│                        OFFLINE (Indexing)                           │
│                                                                     │
│  ┌──────────┐   ┌───────────┐   ┌──────────┐   ┌────────────────┐  │
│  │ Document │──→│ Ingestion │──→│ Chunking │──→│   Embedding    │  │
│  │  Sources │   │ & Cleaning│   │ Strategy │   │ (Text → Vec)   │  │
│  └──────────┘   └───────────┘   └──────────┘   └───────┬────────┘  │
│   PDF/HTML/MD    格式归一化       语义切分              │           │
│   Code/DB        元数据提取       重叠策略         ┌────┴─────┐    │
│                                                   │ Indexing  │    │
│                                                   │ (Vector + │    │
│                                                   │  BM25 DB) │    │
│                                                   └────┬─────┘    │
└────────────────────────────────────────────────────────┼──────────┘
                                                         │
─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ┼ ─ ─ ─ ─ ─
                                                         │
┌────────────────────────────────────────────────────────┼──────────┐
│                        ONLINE (Retrieval)              │           │
│                                                        ▼           │
│  ┌───────┐   ┌──────────┐   ┌───────────┐   ┌────────────────┐   │
│  │ User  │──→│  Query   │──→│  Hybrid   │──→│   Reranking    │   │
│  │ Query │   │ Expansion│   │  Search   │   │ (Cross-Encoder)│   │
│  └───────┘   └──────────┘   │ BM25+Vec  │   └───────┬────────┘   │
│               HyDE/扩写      └───────────┘           │            │
│                              RRF 融合                 ▼            │
│                                              ┌────────────────┐   │
│                                              │Context Packing │   │
│                                              │ (排序/截断/组织) │   │
│                                              └───────┬────────┘   │
│                                                      ▼            │
│                                              ┌────────────────┐   │
│                                              │   LLM Generate │   │
│                                              │  (+ Citation)  │   │
│                                              └───────┬────────┘   │
│                                                      ▼            │
│                                              ┌────────────────┐   │
│                                              │   Response     │   │
│                                              └────────────────┘   │
└───────────────────────────────────────────────────────────────────┘

整个 Pipeline 分为两个阶段:离线索引(Offline Indexing)在线检索(Online Retrieval)。离线阶段处理和索引文档,在线阶段处理用户查询并生成回答。接下来逐一拆解每个环节。


3. Ingestion:数据进入系统的第一关

3.1 数据源多样性

真实世界的知识不会以整洁的纯文本出现。一个企业级 RAG 系统通常需要处理:

数据源 挑战 处理策略
PDF 布局复杂、表格、图片、双栏 使用专用解析器(如 PyMuPDF、Unstructured)
HTML 导航栏、广告、模板噪声 内容提取 + boilerplate 去除
Markdown 相对规范,但嵌套结构多 按标题层级保留结构信息
代码文件 函数、类、注释的语义边界 AST 解析或按函数/类切分
数据库 结构化数据需转换为文本 Schema 描述 + 行级文本化

3.2 文档预处理

原始文档进入系统前,必须经过清洗和归一化:

from dataclasses import dataclass, field
from typing import Optional
import hashlib
import re

@dataclass
class Document:
    """归一化后的文档表示"""
    content: str
    source: str                           # 来源标识(URL、文件路径等)
    doc_type: str                         # pdf, html, markdown, code
    metadata: dict = field(default_factory=dict)  # 标题、作者、日期等
    content_hash: str = ""                # 用于增量更新的去重

    def __post_init__(self):
        if not self.content_hash:
            self.content_hash = hashlib.sha256(
                self.content.encode()
            ).hexdigest()


def preprocess(raw_text: str) -> str:
    """文档预处理:清洗 + 归一化"""
    # 1. 去除多余空白
    text = re.sub(r'\n{3,}', '\n\n', raw_text)
    text = re.sub(r' {2,}', ' ', text)

    # 2. 去除特殊控制字符
    text = re.sub(r'[\x00-\x08\x0b\x0c\x0e-\x1f]', '', text)

    # 3. 归一化 Unicode(统一全角/半角等)
    import unicodedata
    text = unicodedata.normalize('NFKC', text)

    return text.strip()

3.3 增量 vs 全量更新

策略 适用场景 实现复杂度 一致性保证
全量重建 文档量小、更新不频繁 强(每次全量保证一致)
增量更新 文档量大、频繁变更 需额外机制保证

增量更新的关键是 content hash 去重:对每个文档计算内容哈希,只有哈希变化时才重新处理。还需要处理文档删除——被删除的文档对应的 chunk 和向量必须从索引中清除,否则会产生"幽灵知识"。


4. Chunking:RAG 质量的胜负手

Chunking 是 RAG 中最容易被低估、但对质量影响最大的环节。切分策略直接决定了:

  • 检索时能否命中相关内容
  • 命中的内容是否包含足够上下文
  • LLM 拿到的信息是否有噪声

4.1 固定长度切分

最简单的策略:按字符数或 token 数等间隔切分。

def fixed_size_chunk(text: str, chunk_size: int = 512, overlap: int = 64) -> list[str]:
    """固定长度切分,带重叠"""
    chunks = []
    start = 0
    while start < len(text):
        end = start + chunk_size
        chunks.append(text[start:end])
        start = end - overlap  # 重叠区域
    return chunks

优点:实现简单,chunk 大小均匀,token 预算可控。
缺点:完全不考虑语义边界。一个段落可能被从中间切开,一个完整的论述被分到两个 chunk 中,检索时只能命中半句话。

适用场景:对内容结构不了解、无法解析的纯文本;快速原型验证。

4.2 语义切分

按文档的天然结构(段落、标题、代码块)切分:

import re

def semantic_chunk(text: str, max_chunk_size: int = 1024) -> list[str]:
    """基于语义边界的切分"""
    # 按标题分割(Markdown)
    sections = re.split(r'\n(?=#{1,3}\s)', text)

    chunks = []
    for section in sections:
        if len(section) <= max_chunk_size:
            chunks.append(section.strip())
        else:
            # 如果单个 section 太大,按段落再分
            paragraphs = section.split('\n\n')
            current_chunk = ""
            for para in paragraphs:
                if len(current_chunk) + len(para) > max_chunk_size:
                    if current_chunk:
                        chunks.append(current_chunk.strip())
                    current_chunk = para
                else:
                    current_chunk += "\n\n" + para
            if current_chunk:
                chunks.append(current_chunk.strip())

    return [c for c in chunks if c]  # 过滤空 chunk

优点:保留语义完整性,每个 chunk 是一个有意义的信息单元。
缺点:chunk 大小不均匀;依赖文档格式的规范性。

4.3 递归切分

分层递归:先按最大的结构边界切,切不动再用更小的边界:

def recursive_chunk(
    text: str,
    chunk_size: int = 512,
    separators: list[str] = None
) -> list[str]:
    """递归切分:先按大结构,再按小结构"""
    if separators is None:
        separators = [
            "\n\n\n",   # 章节间空行
            "\n\n",      # 段落
            "\n",        # 行
            ". ",        # 句子
            " ",         # 单词
        ]

    if len(text) <= chunk_size:
        return [text]

    # 找到当前层级能用的分隔符
    for i, sep in enumerate(separators):
        if sep in text:
            parts = text.split(sep)
            chunks = []
            current = ""
            for part in parts:
                candidate = current + sep + part if current else part
                if len(candidate) <= chunk_size:
                    current = candidate
                else:
                    if current:
                        chunks.append(current)
                    # 如果单个 part 仍然超限,用更细的分隔符递归
                    if len(part) > chunk_size:
                        chunks.extend(
                            recursive_chunk(part, chunk_size, separators[i+1:])
                        )
                    else:
                        current = part
            if current:
                chunks.append(current)
            return chunks

    # 最后兜底:硬切
    return fixed_size_chunk(text, chunk_size)

这是 LangChain 的 RecursiveCharacterTextSplitter 采用的核心思路——先试大分隔符,不行再试小的,层层递归。

4.4 Overlap 策略

为什么需要重叠?考虑这段文本被切成两个 chunk:

Chunk 1: "...Transformer 模型的核心是 Self-Attention 机制,它允许模型在"
Chunk 2: "处理每个 token 时参考序列中所有其他 token 的信息..."

如果用户问"Self-Attention 机制有什么作用",Chunk 1 命中了关键词但答案不完整,Chunk 2 有答案但没有关键词匹配不上。加入重叠区域后:

Chunk 1: "...Transformer 模型的核心是 Self-Attention 机制,它允许模型在处理每个 token 时"
Chunk 2: "Self-Attention 机制,它允许模型在处理每个 token 时参考序列中所有其他 token 的信息..."

两个 chunk 都包含了完整的语义。

重叠多少合适? 经验值是 chunk 大小的 10%-20%。太少起不到作用,太多则增加存储和检索冗余。对于 512 token 的 chunk,50-100 token 的 overlap 是合理的起点。

4.5 Chunking 策略选择 Trade-off

                    Chunk 大小 Trade-off

      太小 (< 256 tokens)              太大 (> 2048 tokens)
      ┌─────────────────┐              ┌─────────────────┐
      │ + 检索精确        │              │ + 上下文完整     │
      │ + 噪声少          │              │ + 语义连贯       │
      │ - 上下文不足       │              │ - 引入噪声       │
      │ - 需要检索更多 chunk│              │ - 检索不精确     │
      │ - 容易丢失关联信息  │              │ - token 预算浪费 │
      └─────────────────┘              └─────────────────┘
                        │              │
                        ▼              ▼
                   ┌─────────────────────┐
                   │  Sweet Spot         │
                   │  512 - 1024 tokens  │
                   │  根据文档类型调整     │
                   └─────────────────────┘

实际选择建议:

文档类型 推荐 Chunk 大小 推荐策略 原因
技术文档 512-768 tokens 递归(按标题+段落) 结构清晰,段落边界明确
法律/合同 768-1024 tokens 语义(按条款) 条款不可割裂
代码 按函数/类 语义(AST 辅助) 函数是最小可理解单元
FAQ 每个 QA 一个 chunk 自然边界 问答对不可拆分
聊天记录 256-512 tokens 按对话轮次 保持对话上下文

5. Embedding:将语义映射到向量空间

5.1 Embedding 模型选择

Embedding 模型将文本转换为高维向量,使语义相似的文本在向量空间中距离更近。选择合适的模型是基础。

维度 考量 建议
通用 vs 领域 通用模型覆盖面广但特定领域可能不够精确 先用通用模型验证,数据足够后考虑微调
向量维度 768 / 1024 / 1536 / 3072 768-1024 是性价比最高的区间
多语言 中英混合场景极其常见 必须选支持多语言的模型
推理成本 高维模型索引和检索更慢 生产环境需要 benchmark 延迟

关于维度选择的 Trade-off:维度越高,理论上能表示的语义越丰富——但实际收益递减明显。从 768 到 1536 的提升远小于从 384 到 768。同时,维度翻倍意味着存储翻倍、检索延迟增加。对大多数场景,1024 维是一个好的默认选择

5.2 MTEB Benchmark

选择 Embedding 模型时,MTEB(Massive Text Embedding Benchmark) 是最权威的参考。它从 Retrieval、Classification、Clustering 等多个维度评估模型能力。

但请注意:MTEB 排名第一的模型不一定适合你。 你需要关注:

  • 你的数据语言在 benchmark 中是否有代表性
  • 模型大小是否符合你的延迟和成本要求
  • Retrieval 子任务的分数(而非总分)才是 RAG 场景最相关的

5.3 Embedding 实现

from typing import Protocol

class EmbeddingModel(Protocol):
    """Embedding 模型接口抽象"""
    def embed(self, texts: list[str]) -> list[list[float]]:
        ...

    @property
    def dimension(self) -> int:
        ...


class OpenAIEmbedding:
    """OpenAI Embedding 实现示例"""
    def __init__(self, model: str = "text-embedding-3-small"):
        from openai import OpenAI
        self.client = OpenAI()
        self.model = model
        self._dimension = 1536  # text-embedding-3-small 默认维度

    def embed(self, texts: list[str]) -> list[list[float]]:
        # 批量请求,减少 API 调用次数
        response = self.client.embeddings.create(
            model=self.model,
            input=texts
        )
        return [item.embedding for item in response.data]

    @property
    def dimension(self) -> int:
        return self._dimension

关键工程实践:

  1. 批量 Embedding:不要逐条调用 API,而是批量发送(通常 API 限制 2048 条/次)
  2. 缓存:相同内容不要重复 Embed,用 content hash 做缓存 key
  3. 归一化:部分模型输出未归一化的向量,需要显式 L2 归一化后再入库,否则 cosine similarity 计算不准

6. 检索策略:Hybrid Search

检索是 RAG 的核心。单一检索策略各有盲区,生产系统几乎都采用混合检索。

6.1 稀疏检索(BM25)

BM25 是经典的基于词频的检索算法。它的核心思想:一个词在某篇文档中出现频率高(TF),同时在所有文档中出现频率低(IDF),则该词对该文档的重要性高。

import math
from collections import Counter

class BM25:
    """简化版 BM25 实现,展示核心原理"""
    def __init__(self, documents: list[str], k1: float = 1.5, b: float = 0.75):
        self.k1 = k1
        self.b = b
        self.docs = documents
        self.doc_count = len(documents)

        # 预处理:分词 + 词频统计
        self.doc_tokens = [doc.lower().split() for doc in documents]
        self.doc_lengths = [len(tokens) for tokens in self.doc_tokens]
        self.avg_dl = sum(self.doc_lengths) / self.doc_count

        # IDF 预计算
        self.idf = {}
        df = Counter()  # 包含某词的文档数
        for tokens in self.doc_tokens:
            for token in set(tokens):
                df[token] += 1
        for token, freq in df.items():
            self.idf[token] = math.log(
                (self.doc_count - freq + 0.5) / (freq + 0.5) + 1
            )

    def score(self, query: str, doc_idx: int) -> float:
        """计算 query 与某文档的 BM25 分数"""
        query_tokens = query.lower().split()
        doc_tokens = self.doc_tokens[doc_idx]
        doc_len = self.doc_lengths[doc_idx]
        tf = Counter(doc_tokens)

        score = 0.0
        for qt in query_tokens:
            if qt not in self.idf:
                continue
            term_freq = tf.get(qt, 0)
            numerator = term_freq * (self.k1 + 1)
            denominator = term_freq + self.k1 * (
                1 - self.b + self.b * doc_len / self.avg_dl
            )
            score += self.idf[qt] * numerator / denominator
        return score

    def search(self, query: str, top_k: int = 10) -> list[tuple[int, float]]:
        """返回 Top-K 结果:(文档索引, 分数)"""
        scores = [(i, self.score(query, i)) for i in range(self.doc_count)]
        scores.sort(key=lambda x: x[1], reverse=True)
        return scores[:top_k]

BM25 的优势:精确的关键词匹配。用户搜"error code 4012",BM25 能精确命中包含"4012"的文档,而 Embedding 模型可能完全无法区分"4012"和"4013"。

BM25 的劣势:不理解语义。用户问"如何提升系统吞吐量",包含"提高 QPS"的文档不会被召回,因为没有词汇重叠。

6.2 稠密检索(Vector Search)

基于 Embedding 的向量检索,通过语义相似度匹配:

import numpy as np

class VectorSearch:
    """基于向量的语义检索"""
    def __init__(self, embedder: EmbeddingModel):
        self.embedder = embedder
        self.vectors: np.ndarray | None = None
        self.documents: list[str] = []

    def index(self, documents: list[str]):
        """构建索引"""
        self.documents = documents
        embeddings = self.embedder.embed(documents)
        self.vectors = np.array(embeddings)
        # L2 归一化,使 dot product = cosine similarity
        norms = np.linalg.norm(self.vectors, axis=1, keepdims=True)
        self.vectors = self.vectors / norms

    def search(self, query: str, top_k: int = 10) -> list[tuple[int, float]]:
        """语义检索"""
        query_vec = np.array(self.embedder.embed([query])[0])
        query_vec = query_vec / np.linalg.norm(query_vec)

        # Cosine Similarity(归一化后等价于点积)
        similarities = self.vectors @ query_vec
        top_indices = np.argsort(similarities)[::-1][:top_k]
        return [(int(i), float(similarities[i])) for i in top_indices]

Vector Search 的优势:语义理解。"提升吞吐量"和"提高 QPS"会被映射到相近的向量空间位置。

Vector Search 的劣势:对精确匹配不敏感(ID、错误码、专有名词);向量索引的存储和计算成本较高。

6.3 混合检索与 RRF

混合检索结合 BM25 和 Vector Search 的结果。关键问题是:两路检索返回的分数不在同一尺度上,如何融合?

Reciprocal Rank Fusion(RRF) 是最常用的融合算法。它不关心分数的绝对值,只关心排名:

$$RRF(d) = \sum_{r \in R} \frac{1}{k + rank_r(d)}$$

其中 $k$ 是常数(通常取 60),$rank_r(d)$ 是文档 $d$ 在检索源 $r$ 中的排名。

def reciprocal_rank_fusion(
    *result_lists: list[tuple[int, float]],
    k: int = 60
) -> list[tuple[int, float]]:
    """
    RRF 融合多路检索结果

    参数:
        result_lists: 多路检索结果,每路是 (doc_id, score) 列表(已按 score 降序)
        k: 平滑常数,默认 60

    返回:
        融合后的 (doc_id, rrf_score) 列表,按 rrf_score 降序
    """
    rrf_scores: dict[int, float] = {}

    for results in result_lists:
        for rank, (doc_id, _score) in enumerate(results):
            # RRF 公式:只关心排名,不关心原始分数
            rrf_scores[doc_id] = rrf_scores.get(doc_id, 0.0) + 1.0 / (k + rank + 1)

    # 按 RRF 分数降序排列
    fused = sorted(rrf_scores.items(), key=lambda x: x[1], reverse=True)
    return fused


class HybridSearch:
    """混合检索:BM25 + Vector + RRF"""
    def __init__(self, bm25: BM25, vector_search: VectorSearch):
        self.bm25 = bm25
        self.vector_search = vector_search

    def search(self, query: str, top_k: int = 10, retrieve_k: int = 50) -> list[tuple[int, float]]:
        """
        混合检索

        retrieve_k: 每路检索的召回数量(远大于最终 top_k,保证融合质量)
        """
        bm25_results = self.bm25.search(query, top_k=retrieve_k)
        vector_results = self.vector_search.search(query, top_k=retrieve_k)

        fused = reciprocal_rank_fusion(bm25_results, vector_results)
        return fused[:top_k]

6.4 检索策略对比

策略 精确匹配 语义理解 专有名词/ID 同义词/意图 延迟 存储成本
BM25
Vector
Hybrid (RRF)

工程建议:除非你非常确定场景只需要语义搜索(比如纯自然语言文档、没有 ID 和代码),否则默认使用 Hybrid Search。BM25 的实现成本极低,加上它获得的互补收益是巨大的。


7. Reranking:从召回到精排

7.1 为什么需要 Reranking

初步检索(BM25 + Vector)的目标是 高召回率(Recall)——尽量把相关文档都捞出来。但排在前面的不一定最相关。

这就像搜索引擎的两阶段架构:第一阶段用轻量算法从亿级文档中召回 1000 条,第二阶段用重模型对 1000 条做精排,选出最终展示的 10 条。

RAG 中同样如此:

  • 阶段一(Retrieval):从整个知识库中召回 Top-50 或 Top-100
  • 阶段二(Reranking):对这 50-100 条用更强的模型精排,选出 Top-5 送给 LLM

7.2 Bi-encoder vs Cross-encoder

Bi-encoder(初步检索阶段):
┌───────────┐     ┌───────────┐
│  Query    │     │ Document  │
└─────┬─────┘     └─────┬─────┘
      │                 │
      ▼                 ▼
┌───────────┐     ┌───────────┐
│ Encoder   │     │ Encoder   │     独立编码
└─────┬─────┘     └─────┬─────┘     ↓ 可以预计算
      │                 │           ↓ 速度快
      ▼                 ▼           ↓ 精度有限
   vec_q            vec_d
      │                 │
      └───────┬─────────┘
              ▼
        cosine(q, d)  →  score


Cross-encoder(Reranking 阶段):
┌───────────────────────────────┐
│     [CLS] Query [SEP] Doc    │    拼接在一起
└───────────────┬───────────────┘
                │
                ▼
┌───────────────────────────────┐
│       Transformer Encoder      │    联合编码
│      (交叉注意力)               │    ↓ 不可预计算
└───────────────┬───────────────┘    ↓ 速度慢
                │                    ↓ 精度高
                ▼
             score

核心区别:

  • Bi-encoder:Query 和 Document 独立编码,Document 可以离线预计算向量。速度快,适合海量候选。但无法捕捉 Query 和 Document 之间的深层交互。
  • Cross-encoder:Query 和 Document 拼接后一起送入 Transformer,模型能看到两者的每个 token 之间的注意力。精度高,但每对 (Query, Document) 都需要实时计算,速度慢。

因此,Cross-encoder 只适合对少量候选做精排——这正是 Reranking 的定位。

7.3 Reranking 实现

from dataclasses import dataclass

@dataclass
class RerankResult:
    doc_id: int
    content: str
    score: float

class Reranker:
    """基于 Cross-encoder 的重排序"""

    def __init__(self, model_name: str = "BAAI/bge-reranker-v2-m3"):
        # 实际使用时可以接入任意 Rerank 服务
        # 这里展示 API 调用模式
        self.model_name = model_name

    def rerank(
        self,
        query: str,
        documents: list[str],
        doc_ids: list[int],
        top_k: int = 5
    ) -> list[RerankResult]:
        """
        对候选文档重排序

        生产环境中通常调用 Rerank API(如 Cohere Rerank、Jina Rerank)
        或本地部署 Cross-encoder 模型
        """
        scores = self._compute_relevance(query, documents)

        # 按相关性得分降序排列
        ranked = sorted(
            zip(doc_ids, documents, scores),
            key=lambda x: x[2],
            reverse=True
        )

        return [
            RerankResult(doc_id=did, content=doc, score=s)
            for did, doc, s in ranked[:top_k]
        ]

    def _compute_relevance(self, query: str, documents: list[str]) -> list[float]:
        """
        计算 query 与每个 document 的相关性分数
        实际实现会调用 Cross-encoder 模型
        """
        # 伪代码:真实场景替换为模型推理
        # from sentence_transformers import CrossEncoder
        # model = CrossEncoder(self.model_name)
        # pairs = [(query, doc) for doc in documents]
        # scores = model.predict(pairs)
        # return scores.tolist()
        raise NotImplementedError("替换为实际模型调用")

Reranker 选择建议

  • 精度优先:Cohere Rerank、BGE Reranker v2 等专用模型
  • 成本优先:可以用小参数量的 Cross-encoder(如 MiniLM 系列)
  • 延迟敏感:控制候选数量(50 条以内),或使用量化版模型

8. Context Packing:信息如何送达 LLM

检索和重排序完成后,拿到了 Top-K 个最相关的 chunk。接下来的问题是:如何把这些 chunk 组织到 prompt 中,让 LLM 最大化利用?

8.1 "Lost in the Middle" 问题

Stanford 的研究(Liu et al., 2023)发现了一个关键现象:LLM 对 prompt 中间位置的信息利用率显著低于开头和结尾。

LLM 对不同位置信息的利用率(示意):

利用率
  ▲
  │ █                                              █ █
  │ █ █                                          █ █ █
  │ █ █ █                                      █ █ █ █
  │ █ █ █ █                                  █ █ █ █ █
  │ █ █ █ █ █                              █ █ █ █ █ █
  │ █ █ █ █ █ █ ▄ ▄ ▄ ▄ ▄ ▄ ▄ ▄ ▄ ▄ ▄ ▄ █ █ █ █ █ █
  │ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █ █
  └───────────────────────────────────────────────────→ 位置
    开头                  中间                  结尾

这意味着:最相关的文档应该放在 prompt 的开头或结尾,而非中间。

8.2 Context Packing 策略

def pack_context(
    ranked_results: list[RerankResult],
    max_tokens: int = 3000,
    strategy: str = "relevance_first"
) -> str:
    """
    将检索结果组织为 LLM 的上下文

    策略:
        relevance_first: 最相关的放在最前面(默认)
        edges_first: 最相关的放开头和结尾,次相关的放中间
    """
    # 1. Token 预算下的截断
    selected = []
    current_tokens = 0
    for result in ranked_results:
        # 粗略估算 token 数(实际应用 tiktoken)
        estimated_tokens = len(result.content) // 3
        if current_tokens + estimated_tokens > max_tokens:
            break
        selected.append(result)
        current_tokens += estimated_tokens

    if not selected:
        return ""

    # 2. 根据策略决定顺序
    if strategy == "edges_first" and len(selected) >= 3:
        # 交替放置:最相关 → 最不相关 → 次相关 → 次不相关 ...
        reordered = []
        left, right = 0, len(selected) - 1
        toggle = True
        while left <= right:
            if toggle:
                reordered.append(selected[left])
                left += 1
            else:
                reordered.append(selected[right])
                right -= 1
            toggle = not toggle
        selected = reordered

    # 3. 格式化
    context_parts = []
    for i, result in enumerate(selected):
        context_parts.append(
            f"[Document {i+1}] (relevance: {result.score:.3f})\n{result.content}"
        )

    return "\n\n---\n\n".join(context_parts)

8.3 Token 预算管理

LLM 的 context window 是有限的。一个典型的 prompt 结构:

┌─────────────────────────────────────────┐
│  System Prompt        ~500 tokens       │
├─────────────────────────────────────────┤
│  Retrieved Context    ~3000 tokens      │  ← 这里是 Context Packing 的空间
├─────────────────────────────────────────┤
│  Conversation History ~1000 tokens      │
├─────────────────────────────────────────┤
│  User Query           ~200 tokens       │
├─────────────────────────────────────────┤
│  Output Reserve       ~2000 tokens      │  ← 留给模型生成
└─────────────────────────────────────────┘
  Total Budget:         ~6700 tokens

Context 部分的 token 预算 = 总 context window - system prompt - conversation history - user query - output reserve。在这个预算内,优先放入 Reranking 得分最高的 chunk,直到预算用完。

决策要点

  • 宁可少放几个 chunk、每个 chunk 完整,也不要截断 chunk 送进去——被截断的信息比没有信息更糟糕
  • 为每个 chunk 附加来源标识(文档名、URL),方便 LLM 生成 citation
  • 如果多个 chunk 来自同一文档的相邻位置,考虑合并后再送入,减少碎片化

9. RAG 评估体系

"不可度量则不可改进。" RAG 系统的评估需要覆盖检索和生成两个维度。

9.1 Retrieval 评估

指标 公式/含义 衡量什么
Recall@K 在 Top-K 结果中,相关文档被召回的比例 检索的完整性
MRR 第一个相关文档的排名的倒数,取平均 用户需要翻多远才能看到答案
NDCG@K 考虑位置权重的相关性评分(越靠前权重越高) 排序质量
def recall_at_k(relevant_ids: set[int], retrieved_ids: list[int], k: int) -> float:
    """Recall@K: Top-K 中召回了多少相关文档"""
    retrieved_set = set(retrieved_ids[:k])
    if not relevant_ids:
        return 0.0
    return len(relevant_ids & retrieved_set) / len(relevant_ids)


def mrr(relevant_ids: set[int], retrieved_ids: list[int]) -> float:
    """MRR: 第一个相关结果的排名倒数"""
    for rank, doc_id in enumerate(retrieved_ids, start=1):
        if doc_id in relevant_ids:
            return 1.0 / rank
    return 0.0


def ndcg_at_k(relevance_scores: list[int], k: int) -> float:
    """
    NDCG@K: 归一化折损累积增益

    relevance_scores: 按检索排序的相关性评分列表(如 0/1/2/3)
    """
    import math

    def dcg(scores: list[int], k: int) -> float:
        return sum(
            score / math.log2(rank + 2)  # rank 从 0 开始,log2(1) = 0 所以 +2
            for rank, score in enumerate(scores[:k])
        )

    actual_dcg = dcg(relevance_scores, k)
    ideal_dcg = dcg(sorted(relevance_scores, reverse=True), k)

    return actual_dcg / ideal_dcg if ideal_dcg > 0 else 0.0

9.2 Generation 评估

检索质量好不意味着生成质量好。Generation 阶段需要评估:

指标 衡量什么 检测方式
Faithfulness 回答是否忠于检索到的上下文(不编造) 检查回答中的每个声明是否有 context 支撑
Answer Relevancy 回答是否与用户问题相关 生成反向问题,比较与原问题的相似度
Context Relevancy 检索到的上下文是否与问题相关 评估 context 中有多少内容是回答问题所需的

这三个指标构成了 RAG 质量的 "Triad":

                    ┌─────────────┐
                    │   Query     │
                    └──────┬──────┘
                           │
              ┌────────────┼────────────┐
              │                         │
              ▼                         ▼
     ┌────────────────┐       ┌────────────────┐
     │   Context      │       │   Answer       │
     │  (Retrieved)   │       │  (Generated)   │
     └────────┬───────┘       └────────┬───────┘
              │                        │
              │    ┌──────────────┐    │
              └───→│ Faithfulness │←───┘
                   └──────────────┘

     Query ↔ Context  = Context Relevancy
     Query ↔ Answer   = Answer Relevancy
     Context ↔ Answer = Faithfulness

9.3 RAGAS 框架

RAGAS(Retrieval Augmented Generation Assessment) 是目前最流行的端到端 RAG 评估框架,它自动化评估上述指标:

# RAGAS 评估示意(伪代码)
def evaluate_rag_pipeline(test_cases: list[dict]) -> dict:
    """
    每个 test_case 包含:
        - question: 用户问题
        - ground_truth: 标准答案(人工标注)
        - retrieved_contexts: 检索到的上下文
        - generated_answer: RAG 系统生成的答案
    """
    metrics = {
        "faithfulness": [],       # 回答是否忠于 context
        "answer_relevancy": [],   # 回答是否切题
        "context_relevancy": [],  # context 是否相关
        "context_recall": [],     # context 是否覆盖了 ground truth 的信息
    }

    for case in test_cases:
        # Faithfulness: 把 answer 拆成多个 statement,
        # 逐一检查每个 statement 是否能从 context 中推导出来
        metrics["faithfulness"].append(
            check_faithfulness(case["generated_answer"], case["retrieved_contexts"])
        )

        # Answer Relevancy: 从 answer 反向生成问题,
        # 计算生成的问题与原始 question 的语义相似度
        metrics["answer_relevancy"].append(
            check_answer_relevancy(case["question"], case["generated_answer"])
        )

        # Context Relevancy: 评估 context 中有多少句子是回答问题所需的
        metrics["context_relevancy"].append(
            check_context_relevancy(case["question"], case["retrieved_contexts"])
        )

        # Context Recall: 对照 ground truth,检查 context 是否包含了必要的信息
        metrics["context_recall"].append(
            check_context_recall(case["ground_truth"], case["retrieved_contexts"])
        )

    return {k: sum(v) / len(v) for k, v in metrics.items()}

实际操作建议

  1. 构建 50-100 条高质量的评估数据集(question + ground_truth),这是最值得投入的工作
  2. 每次修改 Pipeline(换 Embedding、调 Chunking、加 Reranker)后跑一轮评估
  3. 关注指标的变化方向,而非绝对数值——不同数据集上的绝对分数不可比

10. 常见问题与优化

10.1 检索不到相关内容

症状:知识库中明明有答案,但检索结果中找不到。

原因分析:用户的 Query 和知识库中的表述方式差异太大。

优化手段

Query Expansion(查询扩展):将用户的短 Query 扩展为多个变体,增加召回率:

def expand_query(query: str, llm_call) -> list[str]:
    """用 LLM 扩展查询,生成多个语义等价的变体"""
    prompt = f"""Given the search query: "{query}"

Generate 3 alternative phrasings that express the same intent but use different words.
Return each variant on a new line, without numbering."""

    variants = llm_call(prompt).strip().split("\n")
    return [query] + [v.strip() for v in variants if v.strip()]

HyDE(Hypothetical Document Embeddings):先让 LLM 生成一个"假想答案",用这个答案的 Embedding 去检索,而不是用 Query 的 Embedding。直觉上,答案和知识库中的文档更"长得像":

def hyde_search(query: str, llm_call, vector_search: VectorSearch, top_k: int = 10):
    """HyDE: 用假想答案的 Embedding 检索"""
    # 1. 让 LLM 生成假想答案(不需要准确,只需要"像"真正的文档)
    hypothetical_doc = llm_call(
        f"Please write a short passage that answers the following question: {query}"
    )

    # 2. 用假想答案的 Embedding 检索(而非 Query 的 Embedding)
    results = vector_search.search(hypothetical_doc, top_k=top_k)
    return results

HyDE 的 trade-off:增加了一次 LLM 调用的延迟和成本,但对检索质量的提升在某些场景下非常显著(尤其是短 Query 场景)。

10.2 检索到了但 LLM 没用上

症状:检索结果中包含正确答案,但 LLM 的回答忽略了它或回答错误。

原因分析

  • Context 太长,答案被"淹没"在噪声中(Lost in the Middle)
  • 多个 chunk 包含矛盾信息,LLM 困惑了
  • Prompt 没有明确指示 LLM "基于以下上下文回答"

优化手段

  • 减少送入的 chunk 数量,只保留 Top-3 而非 Top-10
  • 使用 Reranker 提高 Top-K 的精度
  • 在 System Prompt 中明确要求:只基于提供的上下文回答,如果上下文不足以回答则明确说明
  • 应用 "edges_first" 排布策略(见 8.2 节)

10.3 幻觉问题

症状:LLM 编造了上下文中不存在的信息。

优化手段

Citation(引用标注):要求 LLM 在回答中标注每个声明的来源:

CITATION_PROMPT = """Based on the provided context, answer the user's question.

Rules:
1. Only use information from the provided context
2. For each statement in your answer, add a citation like [Doc 1], [Doc 2]
3. If the context does not contain enough information, say "I don't have enough information to answer this"
4. Never make up information not present in the context

Context:
{context}

Question: {question}
"""

Grounding Check(落地检查):生成回答后,用另一次 LLM 调用验证回答中的每个声明是否有上下文支撑。成本高,但在高可靠性场景(医疗、法律、金融)中是必要的。


11. 完整 Pipeline 集成

将上述所有模块串联起来:

class RAGPipeline:
    """完整的 RAG Pipeline"""

    def __init__(
        self,
        embedder: EmbeddingModel,
        reranker: Reranker,
        llm_call,  # (prompt: str) -> str
        chunk_size: int = 512,
        chunk_overlap: int = 64,
        retrieve_k: int = 50,
        rerank_k: int = 5,
        max_context_tokens: int = 3000,
    ):
        self.embedder = embedder
        self.reranker = reranker
        self.llm_call = llm_call
        self.chunk_size = chunk_size
        self.chunk_overlap = chunk_overlap
        self.retrieve_k = retrieve_k
        self.rerank_k = rerank_k
        self.max_context_tokens = max_context_tokens

        self.bm25: BM25 | None = None
        self.vector_search = VectorSearch(embedder)
        self.chunks: list[str] = []

    # ─── Offline: Indexing ───

    def ingest(self, documents: list[Document]):
        """离线索引:文档 → Chunk → Embedding → 索引"""
        # 1. Chunking
        self.chunks = []
        for doc in documents:
            cleaned = preprocess(doc.content)
            doc_chunks = recursive_chunk(cleaned, self.chunk_size)
            self.chunks.extend(doc_chunks)

        # 2. 构建双路索引
        self.bm25 = BM25(self.chunks)
        self.vector_search.index(self.chunks)

        print(f"Indexed {len(documents)} documents → {len(self.chunks)} chunks")

    # ─── Online: Query ───

    def query(self, question: str) -> str:
        """在线查询:Query → 检索 → 重排 → 生成"""
        assert self.bm25 is not None, "Must call ingest() first"

        # 1. Hybrid Search
        hybrid = HybridSearch(self.bm25, self.vector_search)
        retrieval_results = hybrid.search(question, top_k=self.retrieve_k)

        # 2. Reranking
        candidate_ids = [doc_id for doc_id, _ in retrieval_results]
        candidate_docs = [self.chunks[doc_id] for doc_id in candidate_ids]
        reranked = self.reranker.rerank(
            query=question,
            documents=candidate_docs,
            doc_ids=candidate_ids,
            top_k=self.rerank_k,
        )

        # 3. Context Packing
        context = pack_context(reranked, max_tokens=self.max_context_tokens)

        # 4. LLM Generation
        prompt = CITATION_PROMPT.format(context=context, question=question)
        answer = self.llm_call(prompt)

        return answer

这段代码不到 50 行,但串联了 RAG 的所有核心环节。每个环节都可以独立替换和优化——这就是模块化设计的价值。


12. 工程决策速查表

最后,总结 RAG 系统中的关键工程决策:

决策点 推荐默认值 何时调整
Chunk 大小 512 tokens 法律/长文档增大;FAQ 减小
Chunk 重叠 10-20% of chunk size 语义边界切分时可减少
Embedding 维度 1024 存储/延迟敏感时降低
检索策略 Hybrid (BM25 + Vector) 纯自然语言场景可只用 Vector
初步召回数量 50 知识库很大时增加
Rerank Top-K 5 LLM context window 大时可增加
Context 排布 relevance_first 上下文很长时用 edges_first
融合算法 RRF (k=60) 需要调权时切换加权融合

13. 结语与下一步

RAG 给 Agent 提供了 "知识"维度的能力——让 Agent 不再局限于训练数据,能够接入外部的、实时的、私有的信息。但回过头来看,RAG 本质上是一个信息检索工程问题

  • 不是模型越大越好,而是检索越准越好
  • 不是 chunk 越多越好,而是信噪比越高越好
  • 不是 pipeline 越复杂越好,而是每个环节都要可度量、可调优

在 Agent 架构中,RAG 是 Memory 子系统的核心组件。它回答的是"Agent 知道什么"的问题。但 Agent 光有知识不够——它还需要知道 "怎么做"(Planning)和 "做得对不对"(Reflection)。

下一篇,我们将进入 Agent 智能的另一个关键维度:Planning and Reflection——从 ReAct 到分层规划与自我纠错。 一个能规划、能反思的 Agent,才是真正有"智能"的 Agent。


系列导航:本文是 Agentic 系列的第 09 篇。

加载导航中...

评论