Nucleus-Image 17B 开源:首个 MoE 架构文生图扩散模型,仅激活 2B 参数即超越 Imagen 4
元信息
- 来源:今日头条(卡片)
- 原文链接:https://m.toutiao.com/article/7630834063729525311/
- 采集时间:2026-04-21
- 分类:AI技术 / 多模态 / 生成模型
摘要
NucleusAI 开源了 Nucleus-Image(17B 参数)的文本到图像扩散模型。其核心卖点是采用 MoE(Mixture of Experts)架构,在推理时仅激活约 2B 参数,即达到高质量生成效果,并宣称在部分指标上超过 Imagen 4。
关键信息(来自卡片)
- 模型:Nucleus-Image
- 规模:17B 总参数
- 架构:MoE
- 推理激活:约 2B 参数
- 结论点:效率与效果兼顾,主打高性价比文生图能力
技术解读(入库补充)
MoE 在图像扩散模型中的意义:
- 降低单次推理激活参数,减少算力成本
- 通过专家路由实现任务专精,提高质量上限
- 更适合在资源受限场景下做高性能部署
关注点
评估这类模型时建议重点看:
- 开源协议与商用限制
- 真实推理吞吐与显存占用
- 对中文提示词的表现
- 与同规模 Dense 模型对比的稳定性
备注
由于来源页面抓取受限,当前条目基于卡片标题与摘要完成结构化入库,后续可补充论文/代码仓库信息。