支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


一文搞懂RAG构建知识库和知识图谱

发布日期:2025-04-23 06:28:45 浏览次数: 1677 作者:架构师带你玩转AI
推荐语

探索RAG技术如何革新知识库构建和知识图谱整合。

核心内容:
1. RAG技术概述及其在知识问答中的应用价值
2. RAG在知识库构建中的检索与生成机制
3. 使用GraphRAG和Graphusion框架构建知识图谱的实践指南

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

RAG(Retrieval-Augmented Generation,检索增强生成)技术通过检索增强生成,显著提升了知识问答的准确性和时效性。在构建知识库时,RAG通过向量数据库和动态更新机制,实现了高效的知识检索与生成;在构建知识图谱时,RAG通过GraphRAG和Graphusion等框架,实现了实体关系的精准抽取与图谱融合

Retrieval Augmented Generation (RAG) with Spring AI | by Sudeep Moothedath  | Feb, 2025 | Medium

一、RAG

RAG(Retrieval-Augmented Generation,检索增强生成)是什么RAG是一种结合信息检索与文本生成的人工智能技术,旨在通过引入外部知识库,解决大语言模型的幻觉问题。
RAG的核心目标是让大语言模型(LLM)在回答问题时不再仅依赖训练时的固化知识,而是动态检索最新或特定领域的资料来辅助生成答案。
RAG结合了信息检索与生成模型,通过以下三阶段工作:
  • 检索:从外部知识库(如文档、数据库)中搜索与问题相关的信息。
  • 增强:将检索结果作为上下文输入,辅助生成模型理解问题背景。
  • 生成:基于检索内容和模型自身知识,生成连贯、准确的回答。
RAG Optimization. Creation of a knowledge base | by Marko Briesemann |  Medium

Prompt + RAG 如何实战?结合 Prompt 工程与 RAG(检索增强生成) 的实战应用需围绕数据准备、检索优化、生成控制等环节展开。

一、数据准备与向量化
1. 文档预处理与分块
文档预处理通过多模态数据清洗、词形还原与依存句法分析实现文本规范化;分块环节采用递归分割与语义边界识别技术,结合知识图谱关联优化,构建动态重叠的上下文连贯单元,以平衡检索效率与信息完整性。
    # 依赖安装:pip install langchain langchain-text-splittersfrom langchain_text_splitters import RecursiveCharacterTextSplitter# 示例长文本(替换为实际文本)text = """自然语言处理(NLP)是人工智能领域的重要分支,涉及文本分析、机器翻译和情感分析等任务。分块技术可将长文本拆分为逻辑连贯的语义单元,便于后续处理。"""# 初始化递归分块器(块大小300字符,重叠50字符保持上下文)text_splitter = RecursiveCharacterTextSplitter(    chunk_size=300,    chunk_overlap=50,    separators=["\n\n", "\n", "。", "!", "?"]  # 优先按段落/句子分界[2,4](@ref))# 执行分块chunks = text_splitter.split_text(text)# 打印分块结果for i, chunk in enumerate(chunks):    print(f"Chunk {i+1}:\n{chunk}\n{'-'*50}")
    2. 向量化与存储
    向量化通过Embedding模型将非结构化数据(文本、图像等)映射为高维语义向量,存储则依托专用向量数据库(如ElasticSearch的dense_vector字段、Milvus)构建高效索引(HNSW、FAISS),支持近似最近邻搜索(ANN)实现大规模向量数据的快速相似性匹配。
      # 依赖安装:pip install sentence-transformers faiss-cpufrom sentence_transformers import SentenceTransformerfrom langchain_community.vectorstores import FAISS# 1. 文本向量化(使用MiniLM-L6预训练模型)model = SentenceTransformer('paraphrase-MiniLM-L6-v2')embeddings = model.encode(chunks)# 2. 向量存储到FAISS索引库vector_db = FAISS.from_texts(    texts=chunks,    embedding=embeddings,    metadatas=[{"source": "web_data"}] * len(chunks)  # 可添加元数据)# 保存索引到本地vector_db.save_local("my_vector_db")# 示例查询:检索相似文本query = "什么是自然语言处理?"query_embedding = model.encode([query])scores, indices = vector_db.similarity_search_with_score(query_embedding, k=3)print(f"Top 3相似块:{indices}")
      二、检索优化技术
      通过多路召回(如混合检索、HyDE改写、动态重排)提升查全率与排序质量,并利用上下文增强(知识图谱补充关系、指令级RAG动态生成Prompt)优化检索结果。
      三、Prompt 工程实践
      1. 结构化输入设计
      基于角色和场景进行约束,例如法律顾问角色与合同条款咨询场景,结合《民法典》第580条知识单元,通过“用户问题→检索知识→逻辑关联→生成答案”的思维链,分点解释并标注引用来源。
      2. 输出模版控制
      通过预设模板化输出框架确保格式规范,并设置动态防护栏机制过滤敏感词与校验事实一致性,实现内容生成的安全性与合规性。

      二、知识库和知识图谱

      知识库(Knowledge Base)是什么?知识库是结构化、易操作的知识集群,通过系统性整合领域相关知识(如理论、事实、规则等),为问题求解、决策支持和知识共享提供基础平台。

      RAG构建知识库的核心在于将外部知识检索与大语言模型生成能力结合,通过高效检索为生成提供上下文支持,从而提升答案的准确性和时效性。(实战的重点在文本分块Chunking和向量化Embedding)
      1. 文本分块(Chunking)
      文本分块是将长文本分割为较小、可管理的片段,以便更高效地处理和分析。
      2. 向量化(Embedding)
      向量化是将文本或数据映射为高维向量空间中的数值表示,以捕获语义特征。
      Retrieval-Augmented Generation (RAG) process using an LLM | by  LEARNMYCOURSE | Medium
      知识图谱(Knowledge Graph)是什么?知识图谱是一种通过实体与关系构建的语义化网络结构,支持推理与复杂查询,而传统知识库多以非关联的扁平化方式存储数据。
      RAG构建知识图谱的核心是通过结合检索技术与大语言模型(LLM),将外部知识库中的结构化与非结构化数据整合为图谱形式。知识图谱为RAG系统注入结构化推理能力,使其从“信息检索器”进化为“知识推理引擎”。

      RAG构建知识图谱的关键在于检索与生成的协同,其流程包括:

      • 数据预处理:将文档分割为文本块(chunking),并通过命名实体识别(NER)提取实体与关系
      • 知识图谱索引:基于提取的实体与关系,构建初始知识图谱后,运用聚类算法(例如Leiden算法)对图谱中的节点进行社区划分。
      • 检索增强:在用户查询时,通过本地搜索(基于实体)或全局搜索(基于数据集主题)增强上下文,提升生成答案的准确性

      53AI,企业落地大模型首选服务商

      产品:场景落地咨询+大模型应用平台+行业解决方案

      承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

      联系我们

      售前咨询
      186 6662 7370
      预约演示
      185 8882 0121

      微信扫码

      添加专属顾问

      回到顶部

      加载中...

      扫码咨询