by Hannah Apr 07,2025
近年来,大型语言模型(LLMS)的成功吸引了AI领域。这些模型最初是为自然语言处理而设计的,已演变为强大的推理工具,能够通过类似人类的逐步思考过程来解决复杂问题。但是,尽管具有出色的推理能力,但LLMS仍具有重要的缺点,包括高计算成本和缓慢的部署速度,这使得它们对于在资源受限的环境(例如移动设备或边缘计算)中的现实使用中不切实际。这导致人们对开发较小,更高效的模型的兴趣越来越大,这些模型可以提供类似的推理能力,同时最大程度地减少成本和资源需求。本文探讨了这些小推理模型的兴起,它们对AI的未来的潜力,挑战和影响。
对于AI最近的大部分历史,该领域都遵循“缩放定律”的原则,这表明模型性能可以随着数据,计算功率和模型大小的增加而预测。尽管这种方法产生了强大的模型,但它也导致了重大的权衡,包括高基础设施成本,环境影响和潜伏期问题。并非所有应用都需要具有数百十亿个参数的大型模型的全部功能。在许多实际情况下,例如在设备助理,医疗保健和教育等情况下,如果有效的推理,则模型模型可以取得相似的结果。
AI中的推理是指模型遵循逻辑链,理解因果关系,推论含义,计划步骤中的含义并确定矛盾的能力。对于语言模型,这通常意味着不仅要检索信息,还意味着通过结构化的逐步方法来操纵和推断信息。通常,通过微调LLMS来实现这种推理水平,以在获得答案之前执行多步理学。尽管有效,这些方法需要大量的计算资源,并且部署可能会缓慢且昂贵,这引起了人们对其可及性和环境影响的担忧。
小推理模型旨在复制大型模型的推理能力,但在计算能力,内存使用和延迟方面具有更高的效率。这些模型通常采用一种称为知识蒸馏的技术,其中较小的模型(“学生”)从较大的预训练模型(“老师”)中学习。蒸馏过程涉及对较大数据生成的数据训练较小的模型,以传递推理能力。然后,对学生模型进行微调以提高其性能。在某些情况下,采用特定领域特定奖励功能的增强学习来进一步增强模型执行特定于任务推理的能力。
小型推理模型发展中的一个显着里程碑是DeepSeek-R1的发布。尽管接受了相对适量的较旧GPU的培训,但DeepSeek-R1还是在MMLU和GSM-8K等基准上的OpenAi O1(例如OpenAI的O1)竞争的性能。这一成就导致了对传统缩放方法的重新考虑,该方法假设较大的模型本质上是优越的。
DeepSeek-R1的成功可以归因于其创新的培训过程,该过程将大规模的强化学习结合在一起而不依赖于早期阶段的监督微调。这项创新导致了DeepSeek-R1-Zero的创建,该模型与大型推理模型相比表现出令人印象深刻的推理能力。进一步的改进,例如使用冷启动数据,增强了模型的连贯性和任务执行,尤其是在数学和代码等领域。
此外,事实证明,蒸馏技术对于从较大的模型开发较小,更有效的模型至关重要。例如,DeepSeek发布了其模型的蒸馏版本,尺寸从15亿到700亿个参数不等。使用这些模型,研究人员培训了一个较小的模型DeepSeek-R1-Distill-Qwen-32b,该模型的表现优于OpenAI的O1-Mini,跨越了各种基准。这些模型现在可以使用标准硬件部署,使其成为广泛应用程序的更可行的选择。
为了评估小型推理模型(SRMS)是否可以与GPT这样的大型模型(LRM)的推理能力匹配,评估其在标准基准测试上的性能很重要。例如,在MMLU测试中,DeepSeek-R1模型在0.844左右得分,可与大型模型(例如O1)相媲美。 DeepSeek-R1的蒸馏型在GSM-8K数据集(GSM-8K数据集)上,达到了顶级性能,超过了O1和O1 Mini。
在编码任务(例如LiveCodeBench和CodeForces上的任务)中,DeepSeek-R1的蒸馏模型的执行方式类似于O1-Mini和GPT-4O,在编程中表明了强大的推理能力。但是,较大的模型在需要更广泛的语言理解或处理长上下文窗口的任务中仍然具有优势,因为较小的模型往往更特定于任务。
尽管有优势,但小型模型仍可能在扩展的推理任务或面对分发数据时挣扎。例如,在LLM国际象棋模拟中,DeepSeek-R1比大型模型犯了更多的错误,这表明其长期保持专注和准确性的能力限制。
将SRM与GPT级LRMS进行比较时,模型大小和性能之间的权衡至关重要。较小的模型需要更少的内存和计算能力,使其非常适合边缘设备,移动应用程序或需要离线推理的情况。这种效率会导致运营成本较低,而诸如DeepSeek-R1之类的型号比O1等大型型号便宜96%。
但是,这些效率提高带来了一些妥协。较小的模型通常用于特定任务,与较大的型号相比,这可能会限制其多功能性。例如,尽管DeepSeek-R1在数学和编码方面表现出色,但它缺乏多模式功能,例如解释图像的能力,例如GPT-4O(例如GPT-4O)可以处理的图像。
尽管存在这些局限性,但小推理模型的实际应用还是广泛的。在医疗保健方面,它们可以为分析标准医院服务器的医疗数据提供动力。在教育方面,它们可用于开发个性化的辅导系统,向学生提供逐步的反馈。在科学研究中,他们可以在数学和物理等领域进行数据分析和假设检验。诸如DeepSeek-R1之类的模型的开源性质也促进了协作并使对AI的访问权限,使较小的组织能够从先进的技术中受益。
语言模型转化为较小的推理模型是AI的重大进步。尽管这些模型可能尚未完全匹配大语言模型的广泛功能,但它们在效率,成本效益和可访问性方面具有关键优势。通过在推理能力和资源效率之间达到平衡,较小的模型将在各种应用程序中发挥关键作用,从而使AI更实用和可持续性。
CD Projekt Confirms Witcher 4's Protagonist Shift
在iOS&Android上介绍Lok Digital:独立拼图创新
Metroid Prime Artbook Releasing as Nintendo x Piggyback Collab
《Chill》邀请您暂停片刻,保持一点正念,现已在 iOS 和 Android 上推出
鱿鱼游戏:第 2 季发布日期揭晓
如何在 Balatro 中使用作弊(调试菜单指南)
游戏状态揭示了令人兴奋的更新:PlayStation 2025年2月展示
独家:深受喜爱的 CN 游戏已从在线商店下架