LightRAG + RAG-Anything — 港大开源万能 RAG 框架

来源: 今日头条 (2026-04-26)
原文链接: https://m.toutiao.com/article/7631823931548205583/
团队: 香港大学 HKUDS


LightRAG(核心框架)

GitHub: https://github.com/HKUDS/LightRAG
Stars: 17k+ | 论文: EMNLP 2025
pip: pip install lightrag-hku

核心思路

传统 RAG 只做向量检索,LightRAG 在此基础上引入知识图谱,同时支持:

主要特性


RAG-Anything(多模态扩展)

GitHub: https://github.com/HKUDS/RAG-Anything
Stars: 1k+ | 论文: arXiv 2510.12323
定位: 基于 LightRAG 的 All-in-One 多模态 RAG

解决什么问题

传统 RAG 只能处理文本,遇到 PDF 里的图表、PPT 里的公式、视频里的内容就抓瞎。RAG-Anything 统一处理所有模态:

支持格式 说明
PDF 含图表、表格、公式全解析
图片 VLM 增强查询,视觉+文本联合理解
Office 文档 Word/PPT/Excel
视频 配合 VideoRAG 处理超长视频
表格/公式 结构化数据精确提取

VLM 增强查询

文档含图片时,自动调用 VLM(视觉语言模型)分析图像内容,与文本上下文融合后再回答,不再只看文字。


同系列项目

项目 定位
LightRAG 图知识 RAG 核心框架,17k stars
RAG-Anything 多模态 All-in-One RAG
VideoRAG 超长视频理解 RAG
MiniRAG 小模型轻量 RAG

与 OpenClaw 的关联

RAG-Anything 可作为知识库的底层引擎,替代当前 kb-manager 的纯文本检索,支持把 PDF 财报、PPT 课件、图片等直接喂给 AI 问答,适合 edu-agent 的课件知识库场景。