chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Llama 3 王者歸來,Airbox 率先支持部署

算能開發(fā)者社區(qū) ? 2024-04-22 08:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前天,智算領域迎來一則令人振奮的消息:Meta 正式發(fā)布了備受期待的開源大模型——Llama 3。

ed9ee800-003f-11ef-9118-92fbcf53809c.png

Llama 3 的卓越性能

Meta 表示,Llama 3 在多個關鍵基準測試中展現(xiàn)出卓越性能,超越了業(yè)內先進的同類模型。無論是在代碼生成、復雜推理,還是在遵循指令和可視化想法方面,Llama 3 都實現(xiàn)了全面領先。該模型在以下五個基準測試中均表現(xiàn)出色:

MMLU(學科知識理解)

GPQA(一般問題解答)

HumanEval(代碼能力)

GSM-8K(數(shù)學能力)

MATH(高難度數(shù)學問題)

無論是 8B 規(guī)格的 Llama3 還是 70B 規(guī)格,它們都較市場上其他優(yōu)秀大模型表現(xiàn)更佳。

edb0b3c8-003f-11ef-9118-92fbcf53809c.png

縱向對比顯示,Llama 3 的性能大幅領先于前代產(chǎn)品 Llama 2,尤其是在 8B 規(guī)格上,遠超過 Llama 2 時代的 13B 和 70B 規(guī)格;新的 70B 規(guī)格更是展現(xiàn)出與 GPT-4 早期版本相媲美的能力。

指令調優(yōu)模型

Benchmark

Llama 3

8B

Llama 2

7B

Llama 2

13B

Llama 3

70B

Llama 2

70B

MMLU

(5-shot)

68.434.147.88252.9

GPQA

(0-shot)

34.221.722.339.521

HumanEval

(0-shot)

62.27.91481.725.6

GSM-8K

(8-shot, CoT)

79.625.777.49357.5

MATH

(4-shot, CoT)

303.86.750.411.6

瑞莎 Airbox 快速支持 Llama 3

面對 Llama 3 如此激動人心的性能,Airbox 團隊積極響應,快速將 Llama 8B 移植并成功在 Airbox 上運行。以下視頻展示了 Llama 8B 在 Airbox 上的運行情況:


(注:Llama 3 8B 知識更新到 2023 年 3 月)

可以看到,Llama 3 8B 在 Airbox 上的運行表現(xiàn)極為流暢,達到了 9.6 token/s 的處理速度,已充分展現(xiàn)出其實用價值。與其他應用結合使用時,更開辟了廣闊的應用前景和創(chuàng)新可能性。Airbox 團隊后續(xù)會對 Llama 3 8B 做更多測試并公布結果。

關于瑞莎 Fogwise Airbox

瑞莎智算盒子 Fogwise Airbox 是一款面向側端生成式智算的邊緣計算微型服務器,基于算能最新專為生成式智算打造的 SG2300X 處理器設計,具有開箱即用,本地離線部署,注重數(shù)據(jù)隱私,多精度支持,高能效比,高性價比,系統(tǒng)/文檔/工具鏈開源等特點,是當前為數(shù)不多甚至是唯一的低成本在邊緣側部署生成式智算的方案。

瑞莎 Fogwise Airbox 現(xiàn)已準備就緒,即將在近期發(fā)售,敬請期待。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 基準測試
    +關注

    關注

    0

    文章

    21

    瀏覽量

    7815
  • 開源
    +關注

    關注

    3

    文章

    4323

    瀏覽量

    46424
  • 大模型
    +關注

    關注

    2

    文章

    3746

    瀏覽量

    5268
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    借助NVIDIA DSX Air平臺加速AI基礎設施仿真部署

    CoreWeave 等企業(yè)已率先采用這一新平臺,它支持企業(yè)在單臺服務器開箱之前,借助經(jīng)過驗證的計算、網(wǎng)絡、存儲、編排和安全參考架構,對復雜部署進行仿真。
    的頭像 發(fā)表于 03-19 15:48 ?325次閱讀

    如何在Arm Neoverse N2平臺上提升llama.cpp擴展性能

    跨 NUMA 內存訪問可能會限制 llama.cpp 在 Arm Neoverse 平臺上的擴展能力。本文將為你詳細分析這一問題,并通過引入原型驗證補丁來加以解決。測試結果表明,在基于 Neoverse N2 平臺的系統(tǒng)上運行 llama3_Q4_0 模型時,該補丁可使文
    的頭像 發(fā)表于 02-11 10:06 ?287次閱讀

    從云端到邊緣:聯(lián)發(fā)科MT8371/MT8391平臺實現(xiàn)7B大模型本地部署

    :16GB LPDDR5高速內存,支持本地部署DeepSeek、Llama、Gemini等7B大語言開源模型。 ? 多媒體:支持4K/5K超寬顯示、雙ISP架構及多路FHD攝像頭接入
    發(fā)表于 12-15 16:32

    【CIE全國RISC-V創(chuàng)新應用大賽】基于 K1 AI CPU 的大模型部署落地

    的 落地方案 : 1. 系統(tǒng)部署方案書 (System Proposal) 方案要點 部署工具 :使用官方提供的 spacemit-llama.cpp (v0.0.4) 二進制包。 模型策略 :采用
    發(fā)表于 11-27 14:43

    泰凌微電子多系列SoC率先支持Zigbee 4.0標準 助力更高效的連接

    連接標準聯(lián)盟最新發(fā)布的Zigbee 4.0標準,為低功耗物聯(lián)網(wǎng)連接帶來了全新升級!泰凌微電子迅速響應,旗下TLSR9、TL3、TL7系列SoC已率先實現(xiàn)對該標準的支持,以硬核技術助力智能家居、工業(yè)物
    的頭像 發(fā)表于 11-24 14:31 ?3278次閱讀

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語言模型

    為助力打造實時、動態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語言模型(SLM),可實現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1388次閱讀

    全新蔚來ES8屏幕配置解析

    8月21日,第三代全新蔚來ES8閃亮登場,歷經(jīng)7年積累進化,以“王者歸來”之勢,引領豪華大三排SUV進入純電時代。
    的頭像 發(fā)表于 08-22 16:45 ?1793次閱讀

    萬億參數(shù)!元腦企智一體機率先支持Kimi K2大模型

    北京2025年7月21日 /美通社/ --?浪潮信息宣布元腦企智一體機已率先完成對Kimi K2 萬億參數(shù)大模型的適配支持,并實現(xiàn)單用戶70 tokens/s的流暢輸出速度,為企業(yè)客戶高效部署
    的頭像 發(fā)表于 07-22 09:27 ?657次閱讀
    萬億參數(shù)!元腦企智一體機<b class='flag-5'>率先</b><b class='flag-5'>支持</b>Kimi K2大模型

    【VisionFive 2單板計算機試用體驗】3、開源大語言模型部署

    1、ollama平臺搭建 ollama可以快速地部署開源大模型,網(wǎng)址為https://ollama.com, 試用該平臺,可以在多平臺上部署 Deepseek-R1, Qwen3, Llama
    發(fā)表于 07-19 15:45

    Say Hi to ERNIE!Imagination GPU率先完成文心大模型的端側部署

    ImaginationTechnologies宣布率先完成百度文心大模型(ERNIE4.5開源版)在其GPU硬件上的端側部署。適配完成后,開發(fā)者可在搭載ImaginationGPU的設備上實現(xiàn)高效
    的頭像 發(fā)表于 07-01 08:17 ?1074次閱讀
    Say Hi to ERNIE!Imagination GPU<b class='flag-5'>率先</b>完成文心大模型的端側<b class='flag-5'>部署</b>

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現(xiàn)“從 __Int64 轉換為無符號 int 的錯誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型
    的頭像 發(fā)表于 05-13 17:07 ?1839次閱讀
    瑞薩RZ/V2H平臺<b class='flag-5'>支持</b><b class='flag-5'>部署</b>離線版DeepSeek -R1大語言模型

    MediaTek天璣9400率先完成阿里Qwen3模型部署

    通義大模型團隊在天璣 9400 旗艦移動平臺上率先完成 Qwen3(千問 3)的端側部署。未來,搭載天璣 9400 移動平臺的設備可充分發(fā)揮端側 AI 性能潛力,運行千問
    的頭像 發(fā)表于 05-08 10:11 ?1469次閱讀

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團隊在模型發(fā)布當天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。這一成果充分展現(xiàn)了MUSA架構及全功能G
    的頭像 發(fā)表于 05-07 15:24 ?1118次閱讀

    壁仞科技完成阿里巴巴通義千問Qwen3全系列模型支持

    4月29日,阿里巴巴通義千問發(fā)布并開源8款新版Qwen3系列“混合推理模型”(簡稱“Qwen3”)。Qwen3發(fā)布后數(shù)小時內,壁仞科技完成全系列支持,并
    的頭像 發(fā)表于 04-30 15:19 ?1700次閱讀