MIT结合英伟达推TLT手艺,推理大模子练习效率大幅跃升
2026-02-28 15:37:18
麻省理工学院(MIT)携手英伟达、苏黎世联邦理工学院等机构,共同推出了一项名为“驯服长尾”(TLT)的创新技术,旨在显著提升推理大语言模型(LLM)的训练效率。这一突破性成果,为人工智能领域的高效训练提供了新的解决方案。
推理大语言模型在解决复杂问题时展现出强大的能力,通过拆解步骤逐步推导答案。然而,在强化学习(RL)的训练过程中,这类模型对算力和能耗的需求极为庞大。研究团队深入分析后发现,在训练过程中,生成多个备选答案的“推演”阶段占据了总训练时间的85%。由于不同处理器处理任务的速度不同,完成较快的处理器往往需要等待其他处理器处理长文本任务,导致大量时间被浪费,形成了严重的效率瓶颈。
为了解决这一问题,MIT的研究人员与合作伙伴共同提出了“驯服长尾(TLT)”自适应解决方案。该方案的核心在于引入“投机解码”技术,即利用一个较小的“草稿模型”快速预测大模型的未来输出,再由大模型对这些预测进行批量验证。这种方式避免了逐个顺序生成输出的传统模式,从而大幅加快了处理速度。
在传统的投机解码方法中,草稿模型通常只训练一次并保持静态。然而,在强化学习过程中,主模型需要更新数千次,静态草稿模型很快就会失效,无法与主模型保持同步。为了克服这一挑战,TLT系统引入了“自适应草稿训练器”。当部分处理器完成短查询任务后进入闲置状态时,系统会立即调度它们实时训练草稿模型,确保草稿模型始终与目标大模型保持高度同步。
TLT系统还配备了“自适应推演引擎”,能够根据工作负载特征自动调整解码策略,确保在不增加额外算力开销的情况下,实现草稿模型与目标大模型的高效协同。这一创新设计使得训练过程更加灵活和高效。
基于真实世界数据集的测试结果显示,TLT技术在保持模型准确率完全无损的前提下,将多个推理大语言模型的训练速度提升了70%至210%。这一成果不仅显著缩短了训练时间,还降低了能耗和成本,为人工智能的大规模应用提供了有力支持。
值得一提的是,训练过程中得到的轻量级草稿模型还可以作为副产品直接用于后期的高效部署。这一特性进一步提升了TLT技术的实用价值,为人工智能模型的优化和部署提供了新的思路。研究团队计划将该技术融入更多训练与推理框架中,以进一步降低AI开发成本并提升能源利用率。
相关阅读
-
不会写代码也能用,OpenClaw若何帮通俗人脱节反复任务,提拔效率?深度解读 2026-03-09 14:22:05
-
比特币价格预测:2025 年底 15 万美元还是跌至 8.5 万?关键支撑位分析科技前沿 2026-03-09 14:11:28
-
小米2026届春季校园雇用启动:触及芯片、算法等20职类,需多轮测试科技前沿 2026-03-09 14:08:45
-
AI设计新神器来袭:无需专业技能,一句话解锁巨匠级海报创作资讯百科 2026-03-09 14:05:50
-
又一爆款预定,吉祥银河M7将于3月13日表态:1730km超长续航科技前沿 2026-03-09 14:03:26
-
2026百度Apollo Park参访:解锁智能驾驶手艺落地密码,赋能企业转型资讯百科 2026-03-09 14:00:39
-
国内油价本日将迎年内最大涨幅,网友实拍多地加油站排长队科技前沿 2026-03-09 13:57:03
-
智能办公本怎样选?科大讯飞X5等四款抢手产物功能特点大比拼,帮你找到心头好资讯百科 2026-03-09 13:55:27
-
谁动了稳定币的锚?复盘历年重大脱锚事件,一文汇总科技前沿 2026-03-09 13:54:08
-
交通运输部:本年启动效劳区机制晋级举动 增添马桶位、完美充电设备科技前沿 2026-03-09 13:51:19