小米MiMo发布HySparse架构:为Agent时期超长文本处置带来高效新计划
2026-02-08 09:39:27
在Agent模型与应用迅猛发展的当下,如何精准且高效地处理超长文本,已成为大模型领域亟待攻克的关键难题。Agent不仅要能在超长上下文中完成稳定的检索、推理以及多轮规划任务,还需在推理阶段保持足够快的响应速度。此时,最大的挑战已从“能否计算”转变为“能否算得起”。
面对这一挑战,小米MiMo大模型团队推出了HySparse架构,这是一种专为Agent时代打造的混合稀疏注意力架构。该架构采用“极少的全注意力(Full Attention)+ 稀疏注意力(Sparse Attention)”的核心设计理念,旨在实现效果与效率的完美平衡。
在多项通用、数学、代码以及中文评测中,HySparse架构展现出了卓越的性能。无论是7B Dense规模还是80B MoE规模,HySparse均能为模型带来显著提升。以80B - A3B MoE模型实验为例,在总共49层的模型中,HySparse仅保留5层Full Attention,却依然能够保持甚至提升模型的整体能力。同时,KV Cache存储降低至原来的1/11,真正做到了在保证效果的同时大幅提升效率。
RULER长文测试的结果进一步证明了HySparse架构的优势。即便将Full Attention层压缩到极少数,该架构也能稳定地保持对长距离关键信息的访问能力,充分彰显了其混合稀疏结构的独特魅力。
HySparse架构的创新之处在于其采用了hybrid block结构。每个hybrid block由1层Full Attention和N层Sparse Attention组成。在hybrid block内部,Sparse Attention层不再独立进行token选择和维护全量KV,而是直接复用前置Full Attention层生成的重要token索引和KV Cache。这一设计背后的逻辑在于,Full Attention在完成自身计算的同时,已经生成了KV Cache,并且计算出了最准确的token重要性信息,后续的N个Sparse Attention层自然可以直接复用这些信息。
可以认为,HySparse架构是在MiMo - V2 - Flash的Hybrid SWA结构基础上进行的优化升级。它为SWA增加了全局的、更重要的token信息补充,这一改进不仅提升了模型性能,而且没有增加KV Cache存储,也没有显著增加计算开销。
目前,小米MiMo团队已计划在更大规模的模型上进一步验证HySparse架构的极限和潜力。同时,团队还将持续探索降低Full Attention层数量的可能性,力求让超长上下文的处理变得更加高效。HySparse架构为Agent时代的超长文本处理提供了高效精准的技术解决方案,也为大模型高效注意力结构的研究与落地提供了全新的参考范例。
相关阅读
-
身体这两个部位乱推拿真的会要命,快停止科技前沿 2026-03-09 14:26:16
-
不会写代码也能用,OpenClaw若何帮通俗人脱节反复任务,提拔效率?深度解读 2026-03-09 14:22:05
-
比特币价格预测:2025 年底 15 万美元还是跌至 8.5 万?关键支撑位分析科技前沿 2026-03-09 14:11:28
-
小米2026届春季校园雇用启动:触及芯片、算法等20职类,需多轮测试科技前沿 2026-03-09 14:08:45
-
AI设计新神器来袭:无需专业技能,一句话解锁巨匠级海报创作资讯百科 2026-03-09 14:05:50
-
又一爆款预定,吉祥银河M7将于3月13日表态:1730km超长续航科技前沿 2026-03-09 14:03:26
-
2026百度Apollo Park参访:解锁智能驾驶手艺落地密码,赋能企业转型资讯百科 2026-03-09 14:00:39
-
国内油价本日将迎年内最大涨幅,网友实拍多地加油站排长队科技前沿 2026-03-09 13:57:03
-
智能办公本怎样选?科大讯飞X5等四款抢手产物功能特点大比拼,帮你找到心头好资讯百科 2026-03-09 13:55:27
-
谁动了稳定币的锚?复盘历年重大脱锚事件,一文汇总科技前沿 2026-03-09 13:54:08