chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英特爾AI產(chǎn)品助力其運(yùn)行Meta新一代大語(yǔ)言模型Meta Llama 3

英特爾中國(guó) ? 來(lái)源:英特爾中國(guó) ? 2024-04-28 11:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

英特爾豐富的AI產(chǎn)品——面向數(shù)據(jù)中心的至強(qiáng)處理器,邊緣處理器及AI PC等產(chǎn)品為開(kāi)發(fā)者提供最新的優(yōu)化,助力其運(yùn)行Meta新一代大語(yǔ)言模型Meta Llama 3

Meta近日推出其下一代大語(yǔ)言模型(LLM)——Meta Llama 3。在發(fā)布的第一時(shí)間,英特爾即優(yōu)化并驗(yàn)證了80億和700億參數(shù)的Llama 3模型能夠在英特爾至強(qiáng)處理器、英特爾Gaudi加速器、英特爾酷睿Ultra處理器和英特爾銳炫顯卡的AI產(chǎn)品組合上運(yùn)行。

英特爾一直積極與AI軟件生態(tài)系統(tǒng)的領(lǐng)先企業(yè)展開(kāi)合作,致力于提供兼具性能與易用性的解決方案。Meta Llama 3是AI大語(yǔ)言模型重要迭代的新一浪潮。作為AI軟硬件產(chǎn)品技術(shù)創(chuàng)新的引領(lǐng)者,英特爾很開(kāi)心能夠與Meta合作,充分挖掘諸如Llama 3等模型的潛力,助力生態(tài)伙伴開(kāi)發(fā)領(lǐng)先的AI應(yīng)用。

重要意義:秉承推動(dòng)AI無(wú)處不在的愿景,英特爾持續(xù)深耕軟件和AI生態(tài),以確保其產(chǎn)品能夠滿足AI領(lǐng)域持續(xù)變化的創(chuàng)新需求。在數(shù)據(jù)中心,集成英特爾高級(jí)矩陣擴(kuò)展加速引擎(IntelAMX)的英特爾至強(qiáng)處理器和英特爾Gaudi能夠?yàn)闈M足客戶不斷變化、多元化的需求提供更多選擇。

英特爾酷睿Ultra處理器和英特爾銳炫顯卡不僅為開(kāi)發(fā)者提供了本地開(kāi)發(fā)工具,也為在數(shù)百萬(wàn)臺(tái)設(shè)備上進(jìn)行部署提供全面的軟件框架和工具支持。其中,包括PyTorch和用于本地研發(fā)的英特爾PyTorch擴(kuò)展包,以及用于模型開(kāi)發(fā)和推理的OpenVINO工具包等。

在英特爾產(chǎn)品上運(yùn)行Llama 3:英特爾初步測(cè)試和評(píng)估80億和700億參數(shù)的Llama 3模型在自身產(chǎn)品上的性能時(shí),使用了包括PyTorch、DeepSpeed、英特爾Optimum Habana庫(kù)和英特爾PyTorch擴(kuò)展包在內(nèi)的開(kāi)源軟件,并提供最新的軟件優(yōu)化。

●英特爾至強(qiáng)處理器能夠運(yùn)行嚴(yán)苛的端到端AI工作負(fù)載,同時(shí)為了降低延遲,英特爾也通過(guò)技術(shù)創(chuàng)新來(lái)優(yōu)化大語(yǔ)言模型的推理性能。配備性能核的英特爾至強(qiáng)6處理器(代號(hào)Granite Rapids)在運(yùn)行80億參數(shù)的Llama 3模型推理時(shí),延遲比第四代英特爾至強(qiáng)處理器表現(xiàn)出兩倍的提升,并且能夠以低于100毫秒的token延遲運(yùn)行700億參數(shù)的Llama 3模型推理。

●英特爾Gaudi 2加速器在70億、130億和700億參數(shù)的Llama 2模型上具備優(yōu)化的性能,現(xiàn)在其基于全新的Llama 3模型也有了初步性能測(cè)試。隨著英特爾Gaudi軟件的更新,英特爾能夠輕松運(yùn)行新的Llama 3模型,并為推理和微調(diào)生成結(jié)果。近期發(fā)布的英特爾Gaudi 3加速器也支持運(yùn)行Llama 3。

●英特爾酷睿Ultra和英特爾銳炫顯卡在運(yùn)行Llama 3時(shí)亦展現(xiàn)出卓越的性能。在初步測(cè)試中,英特爾酷睿Ultra處理器已經(jīng)展現(xiàn)出遠(yuǎn)高于人類通常閱讀速度的輸出生成性能。此外,英特爾銳炫A770 顯卡具備Xe內(nèi)核中的全新矩陣引擎(Xe Matrix eXtensions,XMX)AI加速和16GB顯存,進(jìn)一步為大語(yǔ)言模型工作負(fù)載提供卓越性能。

未來(lái),Meta將增加新的能力、更多模型尺寸以及增強(qiáng)的性能。英特爾也將持續(xù)提升自身AI產(chǎn)品性能,以支持這一全新的大語(yǔ)言模型。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20170

    瀏覽量

    247928
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10279

    瀏覽量

    179481
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    838

    瀏覽量

    39757
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    537

    瀏覽量

    1043
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    395

    瀏覽量

    955

原文標(biāo)題:英特爾至強(qiáng)和AI PC等產(chǎn)品為Meta Llama 3生成式AI工作負(fù)載提供加速

文章出處:【微信號(hào):英特爾中國(guó),微信公眾號(hào):英特爾中國(guó)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    三鏡齊發(fā)+神經(jīng)腕帶!Meta AI眼鏡“全家桶”開(kāi)啟“意念操控”時(shí)代

    電子發(fā)燒友網(wǎng)報(bào)道(文/莫婷婷)9月18日,MetaMeta Connect大會(huì)上正式發(fā)布了萬(wàn)眾矚目的新一代AI眼鏡,包括第二Ray-Ba
    的頭像 發(fā)表于 09-20 02:10 ?1.3w次閱讀
    三鏡齊發(fā)+神經(jīng)腕帶!<b class='flag-5'>Meta</b> <b class='flag-5'>AI</b>眼鏡“全家桶”開(kāi)啟“意念操控”時(shí)代

    今日看點(diǎn)丨Meta 正式推出全新一代智能眼鏡;三星首次將光掩模生產(chǎn)外包

    Meta 正式推出全新一代智能眼鏡 Meta 正式推出全新一代智能眼鏡「Meta Ray-Ban Display」,并同步亮相創(chuàng)新交互設(shè)備「
    發(fā)表于 09-18 11:00 ?1299次閱讀

    硬件與應(yīng)用同頻共振,英特爾Day 0適配騰訊開(kāi)源混元大模型

    今日,騰訊正式發(fā)布新一代混元開(kāi)源大語(yǔ)言模型。英特爾憑借在人工智能領(lǐng)域的全棧技術(shù)布局,現(xiàn)已在英特爾? 酷睿? Ultra 平臺(tái)上完成針對(duì)該
    的頭像 發(fā)表于 08-07 14:42 ?1139次閱讀
    硬件與應(yīng)用同頻共振,<b class='flag-5'>英特爾</b>Day 0適配騰訊開(kāi)源混元大<b class='flag-5'>模型</b>

    MetaAI之路,為何節(jié)節(jié)敗退?

    如果繼續(xù)自亂陣腳,MetaAI黃昏或許將正式到來(lái)
    的頭像 發(fā)表于 07-23 13:48 ?2432次閱讀
    <b class='flag-5'>Meta</b>的<b class='flag-5'>AI</b>之路,為何節(jié)節(jié)敗退?

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無(wú)符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    續(xù)航翻倍+3K錄制,Meta最新AI運(yùn)動(dòng)眼鏡亮相

    人民幣2862元),面向運(yùn)動(dòng)愛(ài)好者和專業(yè)運(yùn)動(dòng)員。 ? 至此,MetaAI智能眼鏡產(chǎn)品線再度擴(kuò)充,推出了第三AI智能眼鏡。 ?
    的頭像 發(fā)表于 06-23 02:20 ?3490次閱讀
    續(xù)航翻倍+<b class='flag-5'>3</b>K錄制,<b class='flag-5'>Meta</b>最新<b class='flag-5'>AI</b>運(yùn)動(dòng)眼鏡亮相

    直擊Computex 2025:英特爾重磅發(fā)布新一代GPU,圖形和AI性能躍升3.4倍

    B60和英特爾銳炫Pro B50 GPU,AI加速器產(chǎn)品英特爾Gaudi 3 AI加速器。
    的頭像 發(fā)表于 05-21 00:57 ?7047次閱讀
    直擊Computex 2025:<b class='flag-5'>英特爾</b>重磅發(fā)布<b class='flag-5'>新一代</b>GPU,圖形和<b class='flag-5'>AI</b>性能躍升3.4倍

    直擊Computex2025:英特爾重磅發(fā)布新一代GPU,圖形和AI性能躍升3.4倍

    5月19日,在Computex 2025上,英特爾發(fā)布了最新全新圖形處理器(GPU)和AI加速器產(chǎn)品系列。包括全新英特爾銳炫? Pro B系列GPU——
    的頭像 發(fā)表于 05-20 12:27 ?5220次閱讀
    直擊Computex2025:<b class='flag-5'>英特爾</b>重磅發(fā)布<b class='flag-5'>新一代</b>GPU,圖形和<b class='flag-5'>AI</b>性能躍升3.4倍

    英特爾發(fā)布全新GPU,AI和工作站迎來(lái)新選擇

    Pro B50 GPU,搭載了為AI推理和專業(yè)工作站量身定制的配置,擴(kuò)展了英特爾銳炫Pro產(chǎn)品系列。 英特爾 ? Gaudi 3
    發(fā)表于 05-20 11:03 ?1690次閱讀

    從想象到現(xiàn)實(shí),英特爾與MAXHUB帶你走進(jìn)AI PC新視界

    事業(yè)部邊緣計(jì)算CTO、英特爾客戶端計(jì)算事業(yè)部高級(jí)首席AI工程師張宇博士、MAXHUB總裁林宇升出席會(huì)議,并就研發(fā)理念、產(chǎn)品技術(shù)進(jìn)行分享。 張宇博士表示:“大語(yǔ)言
    的頭像 發(fā)表于 04-21 10:40 ?425次閱讀
    從想象到現(xiàn)實(shí),<b class='flag-5'>英特爾</b>與MAXHUB帶你走進(jìn)<b class='flag-5'>AI</b> PC新視界

    部署成本顯著降低!英特爾助陣高效AI算力體機(jī)方案

    3月27日,英特爾舉辦了名為“‘至’繪未來(lái),銳炫來(lái)襲”的創(chuàng)新解決方案研討會(huì),與生態(tài)伙伴共同分享最新AI算力體機(jī)方案。該方案基于英特爾?至強(qiáng)
    的頭像 發(fā)表于 03-29 16:29 ?1762次閱讀
    部署成本顯著降低!<b class='flag-5'>英特爾</b>助陣高效<b class='flag-5'>AI</b>算力<b class='flag-5'>一</b>體機(jī)方案

    無(wú)法在OVMS上運(yùn)行來(lái)自Meta的大型語(yǔ)言模型 (LLM),為什么?

    無(wú)法在 OVMS 上運(yùn)行來(lái)自 Meta 的大型語(yǔ)言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲(chǔ)庫(kù)
    發(fā)表于 03-05 08:07

    英特爾賦能DeepSeek本地運(yùn)行,助力汽車升級(jí)“最強(qiáng)大腦”

    提升GPU內(nèi)存的利用率。這突破為DeepSeek技術(shù)在汽車領(lǐng)域的應(yīng)用開(kāi)辟了新路徑。 隨著第二英特爾銳炫?B系列車載獨(dú)立顯卡的發(fā)布,所支持的DeepSeek模型參數(shù)更是躍升至32B,
    的頭像 發(fā)表于 02-17 09:37 ?993次閱讀

    Meta與UNESCO合作推動(dòng)多語(yǔ)言AI發(fā)展

    Meta最近宣布了項(xiàng)與聯(lián)合國(guó)教科文組織(UNESCO)合作的全新計(jì)劃——語(yǔ)言技術(shù)伙伴計(jì)劃。該計(jì)劃旨在收集多種語(yǔ)言的語(yǔ)音錄音和文字記錄,以推動(dòng)未來(lái)開(kāi)放可用的人工智能(
    的頭像 發(fā)表于 02-08 11:04 ?919次閱讀

    Meta組建四大專研小組,深入探索DeepSeek模型

    近日,據(jù)報(bào)道,臉書(shū)母公司Meta為了提升模型Llama的性能,專門成立了四個(gè)研究小組,深入探索量化巨頭幻方量化旗下的國(guó)產(chǎn)大模型DeepS
    的頭像 發(fā)表于 02-05 14:02 ?727次閱讀