站長之家(ChinaZ.com) 1月31日消息:Mistral AI 和 Allen 人工智能研究所今天發(fā)布了新的大型語言模型(LLM),它們聲稱這些模型在各自類別中屬于最先進的。
Mistral 的模型被稱為 Mistral Small 3,而 Allen 人工智能研究所(通常簡稱 Ai2)發(fā)布的則是 Tülu 3 405B。這兩款模型都可以在開源許可下使用。
Mistral Small 3 包含 240 億個參數(shù),遠少于市場上最先進的 LLM,這使得它在啟用量化后足夠小,可以在某些 MacBook 上運行。量化是一種調整模型的技術,旨在在降低硬件資源需求的同時,減少一些輸出質量的損失。
在一次內部評估中,Mistral 將 Mistral Small 3 與 Meta Platforms Inc. 發(fā)布的開源 LLM Llama 3.3 70B Instruct 進行了對比,后者的參數(shù)量是前者的三倍多。Mistral Small 3 提供了與 Llama 3.3 70B 類似的輸出質量,但響應速度顯著更快。在另一項測試中,這款新模型比 OpenAI 的 GPT-4o mini 提供了更高的輸出質量和更低的延遲。
開發(fā)人員通常通過創(chuàng)建一個基礎模型來構建 LLM,然后使用多種不同的訓練方法來細化其輸出質量。在構建 Mistral Small 3 時,該公司開發(fā)了基礎模型,但跳過了后續(xù)的細化過程。這使得用戶可以根據(jù)項目需求自行微調 Mistral Small 3。
該公司預計開發(fā)人員將會把這款 LLM 應用于各種任務,特別是在需要低延遲執(zhí)行外部應用程序任務的 AI 自動化工具中。該公司表示,其一些客戶還在機器人技術、金融服務和制造業(yè)等行業(yè)特定用例中使用 Mistral Small 3。
「Mistral Small 3 是一款預訓練和指令式模型,專為應對『80%』的生成式 AI 任務而設計——這些任務需要強大的語言能力和指令跟隨性能,并且延遲非常低,」Mistral 的研究人員在博客中寫道。
今天 Mistral Small 3 的發(fā)布恰逢 Ai2(一個非營利的 AI 研究機構)發(fā)布新的 LLM。Tülu 3 405B 是 Meta 去年 6 月發(fā)布的開源 Llama 3.1 405B 模型的定制版。在 Ai2 的測試中,Tülu 3 405B 在多個基準測試中超過了原始的 Llama 模型。
該研究小組使用一種它們在 11 月首次詳細說明的開發(fā)流程創(chuàng)建了這個 LLM。該工作流結合了多種 LLM 訓練方法,其中包括 Ai2 自家發(fā)明的一種方法。
該工作流的第一步是監(jiān)督微調。這是一種訓練方法,通過向 LLM 提供示例提示和相應的答案,幫助它學習如何響應用戶查詢。接下來,Ai2 使用了另一種名為 DPO 的訓練技術,將 Tülu 3 405B 的輸出與一組用戶偏好進行對齊。
Ai2 還使用一種名為 RLVR 的內部開發(fā)的訓練方法進一步優(yōu)化了模型的能力。RLVR 是強化學習的一種變體,強化學習是廣泛應用的 AI 訓練技術。Ai2 表示,RLVR 可以使 AI 模型在解決數(shù)學問題等任務中表現(xiàn)得更好。
Tülu 3 405B 代表了「完全開放的后訓練方法首次應用于最大開放權重模型」,Ai2 的研究人員在博客中寫道?!竿ㄟ^這一發(fā)布,我們展示了我們在 405B 參數(shù)規(guī)模上應用后訓練方法的可擴展性和有效性?!?/p>
(舉報)