電子發(fā)燒友網(wǎng)報道(文/李彎彎)近日,美國初創(chuàng)公司Liquid AI宣布正式推出下一代Liquid基礎模型(LFM2),該模型在邊緣模型類別中創(chuàng)下了速度、能效和質(zhì)量的新紀錄。
LFM2的誕生源于對AI底層邏輯的重構。與傳統(tǒng)基于Transformer的模型不同,LFM2采用結構化、自適應的算子構建,其靈感源自動態(tài)系統(tǒng)理論、信號處理與數(shù)值線性代數(shù)的深度融合。
這種設計使模型具備三大核心優(yōu)勢:其一,訓練效率較上一代提升300%,在CPU上吞吐量較Qwen3、Gemma等模型提升200%,延遲顯著降低;其二,在長上下文處理(如32k token文檔分析)和資源受限場景(如移動端、物聯(lián)網(wǎng)設備)中表現(xiàn)卓越;其三,通過優(yōu)化內(nèi)存占用(LFM-3B僅需16GB內(nèi)存,遠低于Meta Llama-3.2-3B的48GB),實現(xiàn)毫秒級實時推理與離線運行。
“我們以第一性原理構建模型,如同工程師設計發(fā)動機般嚴謹?!盠iquid AI聯(lián)合創(chuàng)始人兼CEO Ramin Hasani在發(fā)布會上強調(diào),“LFM2的目標是讓每臺設備都成為本地AI中心,釋放生成式AI在邊緣場景的潛力。”
從實測數(shù)據(jù)來看,在指令遵循、函數(shù)調(diào)用等智能體AI關鍵屬性上,LFM2平均表現(xiàn)顯著優(yōu)于同規(guī)模競品,成為本地與邊緣用例的理想選擇;
在MMLU(多模態(tài)學習理解)、RULER(長上下文推理)等權威評測中,LFM2-3B模型性能超越前代7B-13B模型,LFM2-40B則以混合專家(MoE)架構實現(xiàn)質(zhì)量與成本的平衡;
生態(tài)兼容性方面,模型權重已開源至Hugging Face,支持通過Liquid Playground即時測試,并即將集成至邊緣AI平臺與iOS原生應用。
LFM2的發(fā)布,恰逢全球邊緣AI市場爆發(fā)前夜。據(jù)預測,僅消費電子、機器人、智能家電等領域的邊緣AI技術,即可在2035年推動總潛在市場規(guī)模逼近1萬億美元。Liquid AI已與《財富》500強企業(yè)展開合作,通過提供超高效率的小型多模態(tài)基礎模型與安全的企業(yè)級部署方案,助力客戶實現(xiàn)數(shù)據(jù)主權與隱私保護。
“將大型生成式模型從云端遷移至設備端,是AI普惠化的必經(jīng)之路。”Hasani指出,“LFM2的毫秒級延遲與離線能力,對手機、汽車、衛(wèi)星等實時性要求極高的終端至關重要。”目前,該公司已與國防、航天、網(wǎng)絡安全等領域達成戰(zhàn)略合作,其技術棧正成為高安全性場景的首選方案。
LFM2的發(fā)布,只是Liquid AI技術長征的第一步。據(jù)透露,未來幾個月內(nèi),公司將陸續(xù)推出系列強大模型,覆蓋更廣泛的模態(tài)與場景。隨著企業(yè)從云端LLM轉向經(jīng)濟高效、快速、私密的本地智能,LFM2或將成為AI技術民主化的關鍵推手。
LFM2的誕生源于對AI底層邏輯的重構。與傳統(tǒng)基于Transformer的模型不同,LFM2采用結構化、自適應的算子構建,其靈感源自動態(tài)系統(tǒng)理論、信號處理與數(shù)值線性代數(shù)的深度融合。
這種設計使模型具備三大核心優(yōu)勢:其一,訓練效率較上一代提升300%,在CPU上吞吐量較Qwen3、Gemma等模型提升200%,延遲顯著降低;其二,在長上下文處理(如32k token文檔分析)和資源受限場景(如移動端、物聯(lián)網(wǎng)設備)中表現(xiàn)卓越;其三,通過優(yōu)化內(nèi)存占用(LFM-3B僅需16GB內(nèi)存,遠低于Meta Llama-3.2-3B的48GB),實現(xiàn)毫秒級實時推理與離線運行。
“我們以第一性原理構建模型,如同工程師設計發(fā)動機般嚴謹?!盠iquid AI聯(lián)合創(chuàng)始人兼CEO Ramin Hasani在發(fā)布會上強調(diào),“LFM2的目標是讓每臺設備都成為本地AI中心,釋放生成式AI在邊緣場景的潛力。”
從實測數(shù)據(jù)來看,在指令遵循、函數(shù)調(diào)用等智能體AI關鍵屬性上,LFM2平均表現(xiàn)顯著優(yōu)于同規(guī)模競品,成為本地與邊緣用例的理想選擇;
在MMLU(多模態(tài)學習理解)、RULER(長上下文推理)等權威評測中,LFM2-3B模型性能超越前代7B-13B模型,LFM2-40B則以混合專家(MoE)架構實現(xiàn)質(zhì)量與成本的平衡;
生態(tài)兼容性方面,模型權重已開源至Hugging Face,支持通過Liquid Playground即時測試,并即將集成至邊緣AI平臺與iOS原生應用。
LFM2的發(fā)布,恰逢全球邊緣AI市場爆發(fā)前夜。據(jù)預測,僅消費電子、機器人、智能家電等領域的邊緣AI技術,即可在2035年推動總潛在市場規(guī)模逼近1萬億美元。Liquid AI已與《財富》500強企業(yè)展開合作,通過提供超高效率的小型多模態(tài)基礎模型與安全的企業(yè)級部署方案,助力客戶實現(xiàn)數(shù)據(jù)主權與隱私保護。
“將大型生成式模型從云端遷移至設備端,是AI普惠化的必經(jīng)之路。”Hasani指出,“LFM2的毫秒級延遲與離線能力,對手機、汽車、衛(wèi)星等實時性要求極高的終端至關重要。”目前,該公司已與國防、航天、網(wǎng)絡安全等領域達成戰(zhàn)略合作,其技術棧正成為高安全性場景的首選方案。
LFM2的發(fā)布,只是Liquid AI技術長征的第一步。據(jù)透露,未來幾個月內(nèi),公司將陸續(xù)推出系列強大模型,覆蓋更廣泛的模態(tài)與場景。隨著企業(yè)從云端LLM轉向經(jīng)濟高效、快速、私密的本地智能,LFM2或將成為AI技術民主化的關鍵推手。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
-
邊緣AI
+關注
關注
1文章
260瀏覽量
6215
發(fā)布評論請先 登錄
相關推薦
熱點推薦
米爾RK3576+Hailo-8突破6 TOPS極限,讓高幀率攝像頭真正“實時”
在邊緣計算領域,算力與實時性之間的博弈從未停止。近期基于米爾MYD-LR3576 開發(fā)板+PCIe M.2接口Hailo-8算力卡進行了一系列深度測試,一組實測數(shù)據(jù),或許能幫你重新審視邊緣
發(fā)表于 04-02 18:03
論馬斯克的預言:AI使人類邊緣化
依據(jù)
馬斯克認為AI已進入“遞歸式自我改進”階段,新一代的AI模型由上一代模型參與訓練,人類監(jiān)督的角色正在被邊緣化。他預計完全自動化的
發(fā)表于 03-14 05:27
邊緣AI算力臨界點:深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價值
AGX Orin
150 TOPS+
本地大模型推理、具身智能控制、多模態(tài)實時交互
迷你AI服務器
176TOPS 意味著OrangePi AI
發(fā)表于 03-10 14:19
如何在邊緣AI應用場景中實現(xiàn)高性能、低功耗推理(上)
。這種方法需要巨大的帶寬才能將海量數(shù)據(jù)傳輸?shù)皆贫恕?邊緣設備越來越多地使用AI推理技術,以實現(xiàn)快速實時響應并提高數(shù)據(jù)隱私和安全性,同時避免與
使用NORDIC AI的好處
; 自定義 Neuton 模型博客]
Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的專用 AI 加速器,對 TensorFlow Lite 模型可實現(xiàn)最高約 1
發(fā)表于 01-31 23:16
工業(yè)視覺網(wǎng)關:RK3576賦能多路檢測與邊緣AI
~150ms6TOPS NPU 邊緣AI推理易對接 MES / 追溯系統(tǒng)
一、產(chǎn)線痛點:從“人看”到“機判”的轉變· 多工位/多角度同步:單機位覆蓋不足,典型項目需 8~12 路并發(fā),且畫面時序一致性要求高
發(fā)表于 10-16 17:56
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片
、分布式群體智能
1)物聯(lián)網(wǎng)AGI系統(tǒng)
優(yōu)勢:
組成部分:
2)分布式AI訓練
7、發(fā)展重點:基于強化學習的后訓練與推理
8、超越大模型:神經(jīng)符號計算
三、AGI芯片的
發(fā)表于 09-18 15:31
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學習AI芯片的創(chuàng)新方法與架構
Transformer和視覺Transformer模型。
ViTA是一種高效數(shù)據(jù)流AI加速器,用于在邊緣設備上部署計算密集型視覺Transformer模型。
發(fā)表于 09-12 17:30
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)
與邊緣AI的不同特點:
邊緣推理的優(yōu)勢:可以提供數(shù)據(jù)處理速度和響應速度,滿足實時需求;可以縮短網(wǎng)絡延遲,降低成本;可以提高安全性和隱私性,
發(fā)表于 09-12 16:07
【Sipeed MaixCAM Pro開發(fā)板試用體驗】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)
能夠有效捕捉AI生成圖像與真實手繪掃描圖像在紋理、筆觸、光影、全局一致性等方面的細微差異。
邊緣端部署:將模型量化、編譯,最終高效運行在算力有限的MaixCAM-Pro開發(fā)板上。
發(fā)表于 08-21 13:59
邊緣智能網(wǎng)關在水務行業(yè)中的應用—龍興物聯(lián)
、重金屬等),數(shù)據(jù)通過邊緣網(wǎng)關實時處理。
優(yōu)勢:?
秒級異常報警:? 邊緣AI模型
發(fā)表于 08-02 18:28
愛芯元智重磅發(fā)布邊緣計算戰(zhàn)略
近日,愛芯元智在2025世界人工智能大會上重磅發(fā)布邊緣計算戰(zhàn)略。展會現(xiàn)場匯聚了眾多行業(yè)精英,共同見證了愛芯元智邊緣計算與AI融合發(fā)展的新路徑,為AI普惠美好生活擘畫新的藍圖。
信而泰×DeepSeek:AI推理引擎驅動網(wǎng)絡智能診斷邁向 “自愈”時代
網(wǎng)絡智能診斷平臺。通過對私有化網(wǎng)絡數(shù)據(jù)的定向訓練,信而泰打造了高性能、高可靠性的網(wǎng)絡診斷模型,顯著提升了AI輔助診斷的精準度與實用性。該方案實現(xiàn)了網(wǎng)絡全流量深度解析能力與AI智能
發(fā)表于 07-16 15:29
最新人工智能硬件培訓AI基礎入門學習課程參考2025版(離線AI語音視覺識別篇)
端側離線 AI 智能硬件作為 AI 技術的重要載體之一,憑借其無需依賴網(wǎng)絡即可實現(xiàn)智能功能的特性,在一些網(wǎng)絡條件受限或對數(shù)據(jù)隱私有較高要求的場景中,發(fā)揮著不可或缺的作用。本章基于CSK
發(fā)表于 07-04 11:14
Nordic收購 Neuton.AI 關于產(chǎn)品技術的分析
與 Nordic 的 nRF54 系列超低功耗無線 SoC 結合,使得即使是資源極為有限的設備也能高效運行邊緣 AI。Nordic 目前正在將 Neuton 深度集成到自身開發(fā)生態(tài)中,未來會提供更多工具、固件
發(fā)表于 06-28 14:18
Liquid AI發(fā)布邊緣AI模型LFM2,實現(xiàn)毫秒級實時推理與離線運行
評論