持续暴涨!MSA 重磅开源!

Type: article
Author: 人工智能科普站
Primary Topic: research
Ingested: 2026-04-10

Summary

EverMind(盛大旗下)开源 MSA(Memory Sparse Attention)项目,将记忆直接嵌入注意力机制,无需拉长 context window 或外挂 RAG。基于 Qwen3-4B + 159B token 预训练,支持 1 亿 token 长期记忆,质量仅下降 9%;4B 参数模型在 9 项测试中平均超越传统 RAG+235B 大模型组合 16%。可跑在两张 A800 上,即插即用替换 Transformer Self-Attention 层。开源后数天暴涨 2600+ Star。

Key Concepts

Entities

Source

Relations


Auto-generated on 2026-04-10