持续暴涨!MSA 重磅开源!
Type: article
Author: 人工智能科普站
Primary Topic: research
Ingested: 2026-04-10
Summary
EverMind(盛大旗下)开源 MSA(Memory Sparse Attention)项目,将记忆直接嵌入注意力机制,无需拉长 context window 或外挂 RAG。基于 Qwen3-4B + 159B token 预训练,支持 1 亿 token 长期记忆,质量仅下降 9%;4B 参数模型在 9 项测试中平均超越传统 RAG+235B 大模型组合 16%。可跑在两张 A800 上,即插即用替换 Transformer Self-Attention 层。开源后数天暴涨 2600+ Star。
Key Concepts
- 长期记忆
- 稀疏注意力
- 记忆即服务
- 上下文压缩
- Agent记忆
- RAG替代
Entities
- MSA
- Memory Sparse Attention
- EverMind
- Omne
- Qwen3-4B
Source
Relations
- alternative_to:RAG
- used_in:agents
- built_on:Qwen3-4B
Auto-generated on 2026-04-10