>  訊息 >  緊湊型AI的推理能力:挑戰GPT?

緊湊型AI的推理能力:挑戰GPT?

by Hannah Apr 07,2025

近年來,大型語言模型(LLMS)的成功吸引了AI領域。這些模型最初是為自然語言處理而設計的,已演變為強大的推理工具,能夠通過類似人類的逐步思考過程來解決複雜問題。但是,儘管具有出色的推理能力,但LLMS仍具有重要的缺點,包括高計算成本和緩慢的部署速度,這使得它們對於在資源受限的環境(例如移動設備或邊緣計算)中的現實使用中不切實際。這導致人們對開發較小,更高效的模型的興趣越來越大,這些模型可以提供類似的推理能力,同時最大程度地減少成本和資源需求。本文探討了這些小推理模型的興起,它們對AI的未來的潛力,挑戰和影響。

觀點的轉變

對於AI最近的大部分歷史,該領域都遵循“縮放定律”的原則,這表明模型性能可以隨著數據,計算功率和模型大小的增加而預測。儘管這種方法產生了強大的模型,但它也導致了重大的權衡,包括高基礎設施成本,環境影響和潛伏期問題。並非所有應用都需要具有數百十億個參數的大型模型的全部功能。在許多實際情況下,例如在設備助理,醫療保健和教育等情況下,如果有效的推理,則模型模型可以取得相似的結果。

了解AI中的推理

AI中的推理是指模型遵循邏輯鏈,理解因果關係,推論含義,計劃步驟中的含義並確定矛盾的能力。對於語言模型,這通常意味著不僅要檢索信息,還意味著通過結構化的逐步方法來操縱和推斷信息。通常,通過微調LLMS來實現這種推理水平,以在獲得答案之前執行多步理學。儘管有效,這些方法需要大量的計算資源,並且部署可能會緩慢且昂貴,這引起了人們對其可及性和環境影響的擔憂。

了解小推理模型

小推理模型旨在復制大型模型的推理能力,但在計算能力,內存使用和延遲方面具有更高的效率。這些模型通常採用一種稱為知識蒸餾的技術,其中較小的模型(“學生”)從較大的預訓練模型(“老師”)中學習。蒸餾過程涉及對較大數據生成的數據訓練較小的模型,以傳遞推理能力。然後,對學生模型進行微調以提高其性能。在某些情況下,採用特定領域特定獎勵功能的增強學習來進一步增強模型執行特定於任務推理的能力。

小推理模型的興起和進步

小型推理模型發展中的一個顯著里程碑是DeepSeek-R1的發布。儘管接受了相對適量的較舊GPU的培訓,但DeepSeek-R1還是在MMLU和GSM-8K等基准上的OpenAi O1(例如OpenAI的O1)競爭的性能。這一成就導致了對傳統縮放方法的重新考慮,該方法假設較大的模型本質上是優越的。

DeepSeek-R1的成功可以歸因於其創新的培訓過程,該過程將大規模的強化學習結合在一起而不依賴於早期階段的監督微調。這項創新導致了DeepSeek-R1-Zero的創建,該模型與大型推理模型相比表現出令人印象深刻的推理能力。進一步的改進,例如使用冷啟動數據,增強了模型的連貫性和任務執行,尤其是在數學和代碼等領域。

此外,事實證明,蒸餾技術對於從較大的模型開發較小,更有效的模型至關重要。例如,DeepSeek發布了其模型的蒸餾版本,尺寸從15億到700億個參數不等。使用這些模型,研究人員培訓了一個較小的模型DeepSeek-R1-Distill-Qwen-32b,該模型的表現優於OpenAI的O1-Mini,跨越了各種基準。這些模型現在可以使用標準硬件部署,使其成為廣泛應用程序的更可行的選擇。

小型型號可以匹配GPT級別的推理嗎?

為了評估小型推理模型(SRMS)是否可以與GPT這樣的大型模型(LRM)的推理能力匹配,評估其在標準基準測試上的性能很重要。例如,在MMLU測試中,DeepSeek-R1模型在0.844左右得分,可與大型模型(例如O1)相媲美。 DeepSeek-R1的蒸餾型在GSM-8K數據集(GSM-8K數據集)上,達到了頂級性能,超過了O1和O1 Mini。

在編碼任務(例如LiveCodeBench和CodeForces上的任務)中,DeepSeek-R1的蒸餾模型的執行方式類似於O1-Mini和GPT-4O,在編程中表明了強大的推理能力。但是,較大的模型在需要更廣泛的語言理解或處理長上下文窗口的任務中仍然具有優勢,因為較小的模型往往更特定於任務。

儘管有優勢,但小型模型仍可能在擴展的推理任務或面對分發數據時掙扎。例如,在LLM國際象棋模擬中,DeepSeek-R1比大型模型犯了更多的錯誤,這表明其長期保持專注和準確性的能力限制。

權衡和實踐意義

將SRM與GPT級LRMS進行比較時,模型大小和性能之間的權衡至關重要。較小的模型需要更少的內存和計算能力,使其非常適合邊緣設備,移動應用程序或需要離線推理的情況。這種效率會導致運營成本較低,而諸如DeepSeek-R1之類的型號比O1等大型型號便宜96%。

但是,這些效率提高帶來了一些妥協。較小的模型通常用於特定任務,與較大的型號相比,這可能會限制其多功能性。例如,儘管DeepSeek-R1在數學和編碼方面表現出色,但它缺乏多模式功能,例如解釋圖像的能力,例如GPT-4O(例如GPT-4O)可以處理的圖像。

儘管存在這些局限性,但小推理模型的實際應用還是廣泛的。在醫療保健方面,它們可以為分析標準醫院服務器的醫療數據提供動力。在教育方面,它們可用於開發個性化的輔導系統,向學生提供逐步的反饋。在科學研究中,他們可以在數學和物理等領域進行數據分析和假設檢驗。諸如DeepSeek-R1之類的模型的開源性質也促進了協作並使對AI的訪問權限,使較小的組織能夠從先進的技術中受益。

底線

語言模型轉化為較小的推理模型是AI的重大進步。儘管這些模型可能尚未完全匹配大語言模型的廣泛功能,但它們在效率,成本效益和可訪問性方面具有關鍵優勢。通過在推理能力和資源效率之間達到平衡,較小的模型將在各種應用程序中發揮關鍵作用,從而使AI更實用和可持續性。

熱門遊戲 更多的 >