LightRAG + RAG-Anything — 港大开源万能 RAG 框架
来源: 今日头条 (2026-04-26)
原文链接: https://m.toutiao.com/article/7631823931548205583/
团队: 香港大学 HKUDS
LightRAG(核心框架)
GitHub: https://github.com/HKUDS/LightRAG
Stars: 17k+ | 论文: EMNLP 2025
pip: pip install lightrag-hku
核心思路
传统 RAG 只做向量检索,LightRAG 在此基础上引入知识图谱,同时支持:
- Local 模式:精确实体检索
- Global 模式:全局主题推理
- Hybrid 模式(默认):两者结合,效果最佳
- Mix 模式:知识图谱 + 向量混合
主要特性
- 知识图谱自动构建(实体+关系抽取)
- 支持 Qwen3/GPT/Claude 等主流 LLM
- 存储后端:PostgreSQL / MongoDB / OpenSearch / Neo4j
- Reranker 支持(显著提升混合查询效果)
- 文档删除 + KG 自动重建
- 引用溯源(Citation)
- RAGAS 评测 + Langfuse 追踪集成
- Docker 一键本地部署(含 embedding/reranking/存储)
RAG-Anything(多模态扩展)
GitHub: https://github.com/HKUDS/RAG-Anything
Stars: 1k+ | 论文: arXiv 2510.12323
定位: 基于 LightRAG 的 All-in-One 多模态 RAG
解决什么问题
传统 RAG 只能处理文本,遇到 PDF 里的图表、PPT 里的公式、视频里的内容就抓瞎。RAG-Anything 统一处理所有模态:
| 支持格式 | 说明 |
|---|---|
| 含图表、表格、公式全解析 | |
| 图片 | VLM 增强查询,视觉+文本联合理解 |
| Office 文档 | Word/PPT/Excel |
| 视频 | 配合 VideoRAG 处理超长视频 |
| 表格/公式 | 结构化数据精确提取 |
VLM 增强查询
文档含图片时,自动调用 VLM(视觉语言模型)分析图像内容,与文本上下文融合后再回答,不再只看文字。
同系列项目
| 项目 | 定位 |
|---|---|
| LightRAG | 图知识 RAG 核心框架,17k stars |
| RAG-Anything | 多模态 All-in-One RAG |
| VideoRAG | 超长视频理解 RAG |
| MiniRAG | 小模型轻量 RAG |
与 OpenClaw 的关联
RAG-Anything 可作为知识库的底层引擎,替代当前 kb-manager 的纯文本检索,支持把 PDF 财报、PPT 课件、图片等直接喂给 AI 问答,适合 edu-agent 的课件知识库场景。