麻薩諸塞州劍橋--(美國商業資訊)-- Liquid AI今日宣布推出其下一代Liquid基礎模型(LFM2),該模型在邊緣模型類別中創下了速度、能效和品質的新紀錄。此次發表以Liquid AI從根本原理出發的模型設計方法為基礎。與傳統基於Transformer的模型不同,LFM2由結構化、自我調整的運算元組成,可實現更高效的訓練、更快的推理速度和更強的泛化能力,在長上下文或資源受限的場景中表現尤為突顯。
Liquid AI將LFM2開放原始碼,以完全透明的方式向世界展示這一創新架構。目前,LFM2的權重可從Hugging Face下載,也可透過Liquid Playground進行測試。Liquid AI還宣布,未來數天內,這些模型將整合到其邊緣AI平台和一款iOS原生消費級應用中,供使用者測試使用。
Liquid AI共同創辦人兼執行長Ramin Hasani表示:「Liquid在打造一流基礎模型時,始終將品質、延遲和記憶體效率放在首位。LFM2系列模型的設計、開發和最佳化均以在任何處理器上實現裝置端部署為目標,真正釋放了生成式AI和代理AI在邊緣場景的應用潛力。LFM2是我們未來幾個月將發表的一系列強大模型中的首款模型。」
LFM2的發表代表全球AI競爭的一個里程碑,這是美國公司首次公開展示在效率和品質上明顯優於中國一流開放原始碼小型語言模型的成果,包括Alibaba和ByteDance開發的模型。
在直接對比評測中,LFM2模型在速度、延遲和指令遵循基準測試中全面超越了最先進的競品。主要亮點包括:
- 在CPU上,相較Qwen3、Gemma 3n Matformer以及迄今為止所有其他基於Transformer和非Transformer的自回歸模型,LFM2的輸送量提升200%且延遲更低。
- 該模型不僅速度最快,在指令遵循和函式呼叫(建構可靠AI代理時,大型語言模型(LLM)的主要屬性)方面,其平均表現也顯著優於同規模層級的其他模型。這使LFM2成為本地和邊緣使用案例的理想選擇。
- 以這一新架構和新訓練基礎設施為基礎建構的LFM模型,訓練效率較上一代LFM提升300%,使其成為建構高效能通用AI系統的最具成本效益的方式。
將大型生成式模型從遠端雲端移轉到輕量化的裝置端LLM,可實現毫秒級延遲、離線運行能力和資料主權隱私保護。這些能力對於需要即時推理的手機、筆記型電腦、汽車、機器人、穿戴式裝置、衛星及其他終端至關重要。在計入國防、航太和網路安全領域的投入之前,僅整合消費電子、機器人、智慧家電、金融、電子商務和教育等高成長領域的邊緣AI技術,就足以推動小巧型私有基礎模型的總潛在市場規模在2035年逼近1兆美元。
Liquid AI已與這些領域的眾多《財星》500大企業展開合作。該公司提供超高效率的小型多模態基礎模型,搭配安全的企業級部署技術堆疊,可將每台裝置都轉化為本地AI裝置。隨著企業從雲端LLM轉向經濟高效、快速、私密的本地智慧,這為Liquid AI提供了取得更大市場佔有率的機會。
關於Liquid AI:
Liquid AI處於人工智慧創新的尖端,其開發的基礎模型不斷刷新效能和效率標準。Liquid AI的使命是建構各種規模的高效通用AI系統,持續突破技術的邊界,將更多智慧融入手機、筆記型電腦、汽車、衛星等各類裝置中。如欲瞭解更多資訊,請造訪www.liquid.ai。
免責聲明:本公告之原文版本乃官方授權版本。譯文僅供方便瞭解之用,煩請參照原文,原文版本乃唯一具法律效力之版本。
請前往 businesswire.com 瀏覽源版本: https://www.businesswire.com/news/home/20250710811793/zh-HK/
CONTACT:
媒體:
Stephen Peters
stephen.peters@liquid.ai