chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AMD助力HyperAccel開發(fā)全新AI推理服務(wù)器

Xilinx賽靈思官微 ? 來源:Xilinx賽靈思官微 ? 2024-09-18 09:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

HyperAccel 是一家成立于 2023 年 1 月的韓國初創(chuàng)企業(yè),致力于開發(fā) AI 推理專用型半導(dǎo)體器件和硬件,最大限度提升推理工作負(fù)載的存儲(chǔ)器帶寬使用,并通過將此解決方案應(yīng)用于大型語言模型來提高成本效率。HyperAccel 針對(duì)新興的生成式 AI 應(yīng)用提供超級(jí)加速的芯片 IP/解決方案。HyperAccel 已經(jīng)打造出一個(gè)快速、高效且低成本的推理系統(tǒng),加速了基于轉(zhuǎn)換器的大型語言模型( LLM )的推理,此類模型通常具有數(shù)十億個(gè)參數(shù),例如 OpenAI 的 ChatGPT 和 Meta 的 Llama 3 等 Llama LLM。其 AI 芯片名為時(shí)延處理單元( LPU ),是專門用于 LLM 端到端推理的硬件加速器。

項(xiàng)目挑戰(zhàn)

隨著 LLM 應(yīng)用的擴(kuò)展,對(duì)高效、快速和具成本效益的推理解決方案的需求不斷上升。對(duì)于云服務(wù)提供商而言,快速且成本效益高的推理硬件對(duì)于托管高性能的生成式 AI 應(yīng)用并降低總擁有成本( TCO )至關(guān)重要。對(duì)于 AI 企業(yè)來說,一個(gè)直觀的軟件堆棧平臺(tái)是實(shí)現(xiàn)其應(yīng)用或模型無縫部署的必備條件。對(duì)于服務(wù)業(yè)務(wù),提供全面的端到端解決方案也是必要的,有利于將最先進(jìn)的 AI 技術(shù)集成到更有效和先進(jìn)的服務(wù)中。

解決方案

HyperAccel 提出通過開發(fā)名為“Orion”的服務(wù)器來解決成本和性能問題,該服務(wù)器搭載了一個(gè)為 LLM 推理量身定制的專用處理器,基于多個(gè)高性能 AMD FPGA部署。Orion 充分利用每個(gè) FPGA 的存儲(chǔ)器帶寬和硬件資源以獲得最高水平的性能。這種可擴(kuò)展的架構(gòu)支持最新的 LLM,此類模型通常包含數(shù)十億個(gè)參數(shù)。

Orion 擁有 16 個(gè)時(shí)延處理單元( LPU ),它們分布在兩個(gè) 2U 機(jī)架中,提供總共 7.36TB/s 的 HBM 帶寬和 14.4 萬個(gè) DSP。LPU 能加速內(nèi)存和計(jì)算都非常密集的超大規(guī)模生成式 AI 工作負(fù)載。Orion 及其 256GB 的 HBM 容量支持多達(dá)千億參數(shù)的最先進(jìn) LLM。上圖展示了兩個(gè) 2U 機(jī)箱之一,配有 8 個(gè) LPU。

下圖顯示了 LPU 架構(gòu),其中矢量執(zhí)行引擎由 AMD Alveo U55C 高性能計(jì)算卡支持。Alveo U55C 卡具有高帶寬存儲(chǔ)器( HBM2 ),解決了提供低時(shí)延AI 的最關(guān)鍵性能瓶頸——存儲(chǔ)器帶寬。此外,它們能夠?qū)?200 Gbps的高速網(wǎng)絡(luò)集成到單個(gè)小型板卡中,并且經(jīng)過精心設(shè)計(jì)可在任何服務(wù)器中部署。

反過來,每個(gè) Alveo 加速卡都由 FPGA 架構(gòu)驅(qū)動(dòng)。鑒于 FPGA 的大規(guī)模硬件并行性和靈活應(yīng)變的存儲(chǔ)器層次結(jié)構(gòu),F(xiàn)PGA 固有的低時(shí)延特性非常適合 LLM 所需的實(shí)時(shí) AI 服務(wù)。Alveo 卡采用了強(qiáng)大的 Virtex XCU55P UltraScale+ FPGA,可提供高達(dá) 38 TOPS 的 DSP 計(jì)算性能,有助于 AI 推理優(yōu)化,包括用于定點(diǎn)與浮點(diǎn)計(jì)算的 INT8。這款 FPGA 能夠根據(jù)客戶反饋調(diào)整其處理器( LPU )的架構(gòu),例如,根據(jù)要求在Llama模型中實(shí)現(xiàn)一些非標(biāo)準(zhǔn)的處理,進(jìn)而提供靈活的解決方案,能夠適應(yīng)不斷變化的市場(chǎng)和 LLM 參數(shù)條件。

wKgaombqLxCAdBaIAAGAxEvslZA335.png

設(shè)計(jì)成效

Orion 的高性能和可擴(kuò)展性是通過 LPU 實(shí)現(xiàn)的,由 AMD Alveo 加速卡和相關(guān)的 FPGA 以及HyperAccel 的可擴(kuò)展同步鏈路( ESL )技術(shù)提供支持。這些技術(shù)最大限度提升了 P2P 傳輸中的存儲(chǔ)器帶寬使用,有利于靈活處理,同時(shí)消除了 P2P 計(jì)算的同步開銷 ESL 屬于為 LLM 推理中的數(shù)據(jù)傳輸優(yōu)化的通信鏈路。值得注意的是,Orion 在支持標(biāo)準(zhǔn) FP16 數(shù)據(jù)精度的硬件上保持了卓越的準(zhǔn)確性。

HyperAccel Orion

的性能

針對(duì)時(shí)延進(jìn)行優(yōu)化的 HyperAccel Orion 與基于轉(zhuǎn)換器的 LLM(如 GPT、Llama 和 OPT)無縫集成,能夠在 1.3B 模型上每秒生成超過 520 個(gè)令牌,在 7B 模型上每秒生成 175 個(gè)令牌。除了卓越的性能外,Orion 還展示了出色的能源效率,在 66B 模型上生成單個(gè)令牌只需 24 毫秒,而功耗僅為 600W。

wKgaombqLxWAduahAADVjgfBfyc650.png

HyperAccel LPU 的性能(來源:https://www.hyperaccel.ai)

HyperAccel Orion

—— 工作負(fù)載多樣性

Orion 提供端到端的解決方案服務(wù),可作為云端服務(wù)部署。對(duì)于擁有專有 LLM 的AI 企業(yè)或存在內(nèi)部數(shù)據(jù)隱私與安全需求的專業(yè)部門,Orion 也能夠以本地解決方案的形式進(jìn)行安裝。Orion 能夠處理以下工作負(fù)載/應(yīng)用:

客戶服務(wù):通過虛擬聊天機(jī)器人和虛擬助手實(shí)時(shí)處理查詢,因此人工客服將有時(shí)間處理更復(fù)雜的問題。

人機(jī)界面:在自助服務(wù)終端、機(jī)器人和其它設(shè)備中支持與語言相關(guān)的功能,以增強(qiáng)客戶互動(dòng)體驗(yàn)。

文本生成:協(xié)助生產(chǎn)、總結(jié)和精煉復(fù)雜的文本內(nèi)容,為用戶提供便利。

語言翻譯:翻譯客戶查詢和回復(fù)信息,打破語言障礙,擴(kuò)大企業(yè)的全球影響力。

問答:根據(jù)大量數(shù)據(jù)以及此前的互動(dòng)和偏好記錄,定制針對(duì)個(gè)別客戶的回復(fù),以提高客戶滿意度。

進(jìn)一步了解AMD Virtex UltraScale+ FPGA和Alveo U55C 加速卡,請(qǐng)?jiān)L問產(chǎn)品專區(qū)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1663

    文章

    22491

    瀏覽量

    638837
  • amd
    amd
    +關(guān)注

    關(guān)注

    25

    文章

    5703

    瀏覽量

    140365
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    14

    文章

    10339

    瀏覽量

    91731
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40908

    瀏覽量

    302480

原文標(biāo)題:HyperAccel 借助 AMD 加速卡與 FPGA 打造全新 AI 推理服務(wù)器

文章出處:【微信號(hào):賽靈思,微信公眾號(hào):Xilinx賽靈思官微】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    服務(wù)器發(fā)展趨勢(shì):迎接數(shù)字時(shí)代新變革

    的迅猛發(fā)展對(duì)服務(wù)器性能提出了更高要求。AI訓(xùn)練和推理任務(wù)需要強(qiáng)大的并行計(jì)算能力,傳統(tǒng)CPU架構(gòu)已難以滿足。因此,搭載GPU、TPU、FPGA等專用加速芯片的AI
    的頭像 發(fā)表于 03-19 16:58 ?212次閱讀
    <b class='flag-5'>服務(wù)器</b>發(fā)展趨勢(shì):迎接數(shù)字時(shí)代新變革

    利用BigQuery MCP服務(wù)器開發(fā)面向數(shù)據(jù)分析的生成式AI應(yīng)用

    AI 智能體接入企業(yè)數(shù)據(jù),其實(shí)不需要復(fù)雜的自定義集成或耗費(fèi)數(shù)周開發(fā)。12 月,我們推出了面向 Google 服務(wù)的全托管式遠(yuǎn)程 Model Context Protocol (MCP)
    的頭像 發(fā)表于 02-25 10:22 ?420次閱讀
    利用BigQuery MCP<b class='flag-5'>服務(wù)器</b><b class='flag-5'>開發(fā)</b>面向數(shù)據(jù)分析的生成式<b class='flag-5'>AI</b>應(yīng)用

    LabCompanion宏展全新推出高發(fā)熱大負(fù)載Walk-in試驗(yàn)箱,助力AI算力用大型服務(wù)器測(cè)試驗(yàn)

    AI服務(wù)器的挑戰(zhàn)在AI浪潮下,服務(wù)器已從單純的數(shù)據(jù)處理機(jī),演進(jìn)為現(xiàn)今智能時(shí)代的核心基礎(chǔ)設(shè)施。無論是訓(xùn)練大型語言模型(LLM)、即時(shí)推論AI應(yīng)
    的頭像 發(fā)表于 02-07 10:03 ?873次閱讀
    LabCompanion宏展<b class='flag-5'>全新</b>推出高發(fā)熱大負(fù)載Walk-in試驗(yàn)箱,<b class='flag-5'>助力</b><b class='flag-5'>AI</b>算力用大型<b class='flag-5'>服務(wù)器</b>測(cè)試驗(yàn)

    國產(chǎn)AI服務(wù)器核心工藝突破,高密度貼片良率創(chuàng)新高

    AI服務(wù)器貼片打樣 是高性能計(jì)算硬件研發(fā)的關(guān)鍵前哨。作為承載AI訓(xùn)練與推理任務(wù)的硬件核心,AI服務(wù)器
    的頭像 發(fā)表于 02-04 20:37 ?277次閱讀
    國產(chǎn)<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>核心工藝突破,高密度貼片良率創(chuàng)新高

    普通服務(wù)器電源與AI服務(wù)器電源的區(qū)別(上)

    引言服務(wù)器是數(shù)據(jù)中心的核心設(shè)備,其穩(wěn)定運(yùn)行依賴可靠的電源供應(yīng)。隨著AI技術(shù)的飛速發(fā)展,AI服務(wù)器大量涌現(xiàn),與普通服務(wù)器在應(yīng)用場(chǎng)景等方面存在顯
    的頭像 發(fā)表于 01-12 09:31 ?1351次閱讀
    普通<b class='flag-5'>服務(wù)器</b>電源與<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>電源的區(qū)別(上)

    Microchip推出模型語境協(xié)議(MCP)服務(wù)器,助力AI驅(qū)動(dòng)的產(chǎn)品數(shù)據(jù)訪問

    服務(wù)器支持跨AI平臺(tái)獲取可信產(chǎn)品信息,簡化工作流程、加速設(shè)計(jì)并提高生產(chǎn)力 為進(jìn)一步兌現(xiàn)公司為嵌入式工程師開發(fā)AI解決方案的承諾,Microchip Technology Inc.(微
    的頭像 發(fā)表于 12-04 16:45 ?1143次閱讀

    AMD Vitis AI 5.1測(cè)試版發(fā)布

    AMD Vitis AI 5.1全新發(fā)布——新增了對(duì) AMD Versal AI Edge 系列神經(jīng)網(wǎng)絡(luò)處理單元 (NPU) 的支持。Vit
    的頭像 發(fā)表于 10-31 12:46 ?961次閱讀

    對(duì)話|AI服務(wù)器電源對(duì)磁性元件提出的新需求

    編者按: 自ChatGPT、DeepSeek等大型AI模型應(yīng)用爆發(fā)以來,市場(chǎng)對(duì)AI服務(wù)器的需求激增,其配套電源的發(fā)展前景已成為行業(yè)共識(shí)。目前,I服務(wù)器電源企業(yè)的出貨規(guī)模仍有限,
    的頭像 發(fā)表于 10-11 14:55 ?1201次閱讀
    對(duì)話|<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>電源對(duì)磁性元件提出的新需求

    ROHM推出全新100V功率MOSFET助力AI服務(wù)器和工業(yè)電源高效能

    近期,ROHM半導(dǎo)體公司發(fā)布了一款全新的100V功率MOSFET——RY7P250BM。這款器件專為48V電源架構(gòu)中的熱插拔電路設(shè)計(jì),廣泛應(yīng)用于AI服務(wù)器及工業(yè)電源,尤其是在需要電池保護(hù)的場(chǎng)合。隨著
    的頭像 發(fā)表于 07-03 10:23 ?1134次閱讀
    ROHM推出<b class='flag-5'>全新</b>100V功率MOSFET<b class='flag-5'>助力</b><b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>和工業(yè)電源高效能

    ai服務(wù)器是什么?與普通服務(wù)器有什么區(qū)別

    AI服務(wù)器并非簡單的硬件堆砌,而是專門為人工智能任務(wù)設(shè)計(jì)的高性能計(jì)算系統(tǒng)。其核心目標(biāo)是高效處理海量數(shù)據(jù)并行計(jì)算(如矩陣乘法、模型推理),并針對(duì)AI工作負(fù)載(如深度學(xué)習(xí)訓(xùn)練、大模型
    的頭像 發(fā)表于 06-24 16:39 ?4884次閱讀

    AI 服務(wù)器電源如何迭代升級(jí)?

    AI 算力需求增長的今天,AI 服務(wù)器電源正陷入 “性能瓶頸與國產(chǎn)替代并行、場(chǎng)景適配與技術(shù)創(chuàng)新交織” 的雙重挑戰(zhàn)。 由Big-Bit商務(wù)網(wǎng)、廣東省磁性元器件行業(yè)協(xié)會(huì)主辦的2025中國電子熱點(diǎn)
    的頭像 發(fā)表于 06-23 14:51 ?1648次閱讀

    RAKsmart服務(wù)器如何助力企業(yè)破解AI轉(zhuǎn)型的難題

    當(dāng)今,企業(yè)AI轉(zhuǎn)型已成為提升競爭力的核心戰(zhàn)略。然而,算力不足、成本失控、部署復(fù)雜等問題卻成為橫亙?cè)谵D(zhuǎn)型路上的“三座大山”。面對(duì)這一挑戰(zhàn),RAKsmart服務(wù)器憑借其技術(shù)創(chuàng)新與全球化資源整合能力,為企業(yè)提供了一套從底層硬件到上層應(yīng)用的全棧解決方案,
    的頭像 發(fā)表于 05-27 10:00 ?534次閱讀

    基于RAKsmart云服務(wù)器AI大模型實(shí)時(shí)推理方案設(shè)計(jì)

    面對(duì)高并發(fā)請(qǐng)求、嚴(yán)格的響應(yīng)延遲要求及波動(dòng)的業(yè)務(wù)負(fù)載,傳統(tǒng)本地化部署的算力瓶頸愈發(fā)顯著。RAKsmart云服務(wù)器憑借其彈性計(jì)算資源池、分布式網(wǎng)絡(luò)架構(gòu)與全棧AI加速能力,為AI大模型實(shí)時(shí)推理
    的頭像 發(fā)表于 05-13 10:33 ?702次閱讀

    RAKsmart服務(wù)器如何賦能AI開發(fā)與部署

    AI開發(fā)與部署的復(fù)雜性不僅體現(xiàn)在算法設(shè)計(jì)層面,更依賴于底層基礎(chǔ)設(shè)施的支撐能力。RAKsmart服務(wù)器憑借其高性能硬件架構(gòu)、靈活的資源調(diào)度能力以及面向AI場(chǎng)景的深度優(yōu)化,正在成為企業(yè)突破
    的頭像 發(fā)表于 04-30 09:22 ?918次閱讀

    AI服務(wù)器硬件攻堅(jiān)戰(zhàn),從時(shí)鐘緩沖到電容,解決功耗、帶寬、散熱難題

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)AI服務(wù)器是 專為人工智能工作負(fù)載設(shè)計(jì)和優(yōu)化的高性能計(jì)算系統(tǒng),其核心作用是為機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、大模型訓(xùn)練與推理等任務(wù)提供強(qiáng)大的算力支撐和高效的資源管理。AI
    的頭像 發(fā)表于 04-28 01:09 ?5141次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b>硬件攻堅(jiān)戰(zhàn),從時(shí)鐘緩沖到電容,解決功耗、帶寬、散熱難題