chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么說GPU再火,AI平臺(tái)也少不了強(qiáng)力的CPU?

英特爾中國 ? 來源:云智慧AI ? 2024-04-02 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AIGC的這把火,燃起來的可不只是百模大戰(zhàn)的熱度和雨后春筍般的各式AI應(yīng)用。

更是由于算力與通信需求的爆發(fā)式增長,使得底層的專用加速芯片、以及配備這些芯片的AI加速服務(wù)器再次被拉到了大眾的聚光燈下。

據(jù)統(tǒng)計(jì),2023年全球范圍內(nèi)的AI服務(wù)器市場規(guī)模已經(jīng)達(dá)到了211億美元,并且IDC還發(fā)布預(yù)測說:

預(yù)計(jì)2025年達(dá)317.9億美元,2023-2025年CAGR為22.7%。

AIGC大模型的訓(xùn)練和推理需要大量的高性能算力支持,對AI服務(wù)器需求還將提升。

60b16410-f01b-11ee-a297-92fbcf53809c.png

而且AI加速服務(wù)器不同于普通服務(wù)器,在架構(gòu)上一般采用異構(gòu)的方式,且GPU的數(shù)量更是能配多少就配多少,這也就是造成目前GPU千金難求的因素之一。

但你知道嗎?即使在大模型時(shí)代GPU或各式AI加速芯片的光芒變得更加耀眼,但對于AI基礎(chǔ)設(shè)施來說,CPU依然是必不可少的存在——至少一臺(tái)高端的AI加速服務(wù)器中每8個(gè)GPU就需得搭配2個(gè)CPU。

不僅如此,由于AI加速服務(wù)器異構(gòu)的特點(diǎn),市場上除了CPU+GPU的組合方式之外,還有其它多種多樣的架構(gòu),例如:

CPU+FPGA CPU+TPU CPU+ASIC CPU+多種加速卡

不難看出,即使AI加速服務(wù)器架構(gòu)的組合方式萬般變化,唯獨(dú)不能變的就是CPU,而且往往還得是搭配高端的那種。

那么為什么會(huì)這樣呢?

AI加速服務(wù)器中的CPU

首先,CPU對于AI加速服務(wù)器來說相當(dāng)于人的大腦。

它可以負(fù)責(zé)整個(gè)服務(wù)器的運(yùn)算與控制,是直接影響到服務(wù)器整體性能的核心部件。

CPU處理操作系統(tǒng)的指令,協(xié)調(diào)各個(gè)硬件組件的工作,包括內(nèi)存管理、數(shù)據(jù)流控制和I/O操作。

即使在AI服務(wù)器中,GPU或其他加速器負(fù)責(zé)執(zhí)行大部分計(jì)算密集型任務(wù),CPU仍然是不可或缺的,因?yàn)樗_保了整個(gè)系統(tǒng)的穩(wěn)定運(yùn)行、各組件的高效通信協(xié)作,最終推進(jìn)任務(wù)的順利執(zhí)行。

其次,CPU還具備靈活性通用性。

CPU的設(shè)計(jì)一般為通用處理器,能夠執(zhí)行各種類型的計(jì)算任務(wù)。

雖然GPU在并行處理方面更為高效,但CPU在處理序列化任務(wù)、執(zhí)行復(fù)雜邏輯和運(yùn)行通用應(yīng)用程序方面更為靈活。

真正完整的AI應(yīng)用平臺(tái)其實(shí)需要處理一系列密切相關(guān)又特色各異的任務(wù),包括數(shù)據(jù)預(yù)處理、模型訓(xùn)練、推理和后處理等,這些任務(wù)也可能甚至特別需要CPU的通用處理能力。

不僅如此,CPU還是系統(tǒng)啟動(dòng)和維護(hù)的關(guān)鍵點(diǎn)。

因?yàn)榉?wù)器的啟動(dòng)過程、系統(tǒng)監(jiān)控、故障診斷和維護(hù)操作都需要CPU來執(zhí)行;沒有CPU,這些關(guān)鍵的系統(tǒng)級任務(wù)將無法進(jìn)行。

而且CPU在軟件兼容性方面更是有積累多年的優(yōu)勢。

市面上大多數(shù)軟件和應(yīng)用程序都是為CPU設(shè)計(jì)的,包括操作系統(tǒng)、數(shù)據(jù)庫管理系統(tǒng)和開發(fā)工具。AI加速服務(wù)器需要運(yùn)行這些軟件來支持AI應(yīng)用的開發(fā)和部署。

也正如我們剛才所說,現(xiàn)在AI加速服務(wù)器均是采用異構(gòu)的形式,CPU在此過程中可以作為控制節(jié)點(diǎn),管理GPU或其他加速器的計(jì)算任務(wù),以此來實(shí)現(xiàn)高效的資源分配和任務(wù)調(diào)度。

最后,便是成本的問題。

雖然GPU在AI計(jì)算中非常高效,但CPU或其他專用加速芯片仍然是成本效益較高的選擇,特別是在處理不適合GPU或加速器的任務(wù)時(shí)。CPU和它們的組合可以提供更佳的性能和成本平衡。

這也就不難理解為什么AI加速服務(wù)器里唯獨(dú)不能缺少CPU了。

那么接下來的一個(gè)問題便是,主流的服務(wù)器廠商都在用什么樣的CPU。

我們以國內(nèi)AI加速服務(wù)器市場份額排第一的浪潮為例,從最新消息來看,其NE5260G7服務(wù)器便已經(jīng)適配了老牌芯片巨頭英特爾最新發(fā)布的第五代英特爾 至強(qiáng) 可擴(kuò)展處理器

而之所以浪潮要適配最新的高端CPU,可以理解為“高端的游戲需要搭配高端GPU和CPU”,AI服務(wù)器要想在性能上取得新突破,同樣也是要適配高端的硬件。

具體而言,與前一代相比,第五代英特爾 至強(qiáng) 可擴(kuò)展處理器在處理人工智能工作負(fù)載方面表現(xiàn)出色,其性能提升了21%,特別是在AI推理任務(wù)上,性能增幅更是達(dá)到了42%。

此外,它的內(nèi)存帶寬也增加了16%;在執(zhí)行一般計(jì)算任務(wù)時(shí),第五代至強(qiáng) 可擴(kuò)展處理器能夠?qū)⒄w性能提高至多21%,并且在多個(gè)客戶實(shí)際工作負(fù)載中實(shí)現(xiàn)了每瓦特功耗性能提升高達(dá)36%。

也正因“內(nèi)核”如此強(qiáng)悍,才使得浪潮的服務(wù)器在性能上實(shí)現(xiàn)了平均21%的提升。

不過有一說一,畢竟AI也不完全就是單純的模型或大模型的加速,因此上述的CPU優(yōu)勢也還僅是能力的一隅,在各個(gè)細(xì)分的應(yīng)用場景中,它還有更大的作為。

AI不完全是大模型

即使在配備了GPU或?qū)S眉铀倨鞯腁I服務(wù)器中,CPU的角色也遠(yuǎn)不止于主控或?yàn)榧铀倨魈峁┓?wù)。

而是在AI系統(tǒng)的整個(gè)生命周期中扮演著多樣化的角色,貫穿從數(shù)據(jù)采集、預(yù)處理、訓(xùn)練、推理、應(yīng)用等全流程。

先說最關(guān)鍵的AI模型,尤其是模型推理這一環(huán)節(jié)。

不論是現(xiàn)在占據(jù)最強(qiáng)話題熱度的大語言模型,還是傳統(tǒng)的深度學(xué)習(xí)模型,抑或是科學(xué)計(jì)算與人工智能交融形成的AI for Science應(yīng)用,CPU,特別是內(nèi)置AI加速能力的英特爾 至強(qiáng) 可擴(kuò)展處理器,都在推理應(yīng)用中有不俗戰(zhàn)績。

例如在AlphaFold2掀起的蛋白質(zhì)折疊預(yù)測熱潮之中,借助第三代和第四代至強(qiáng) 可擴(kuò)展處理器不斷優(yōu)化端到端通量能力,就能實(shí)現(xiàn)比GPU更具性價(jià)比的加速方案,直接拉低AI for Science的入場門檻。

6152aece-f01b-11ee-a297-92fbcf53809c.png

再例如OCR技術(shù)應(yīng)用,也隨著至強(qiáng) 可擴(kuò)展處理器在內(nèi)置AI加速技術(shù)上的演進(jìn),被賦予了新的“靈魂”,不但準(zhǔn)確率飆升、響應(yīng)延遲也進(jìn)一步降低。

61cf6dc4-f01b-11ee-a297-92fbcf53809c.png

更別提以ChatGLM為代表的通用大模型,以及衛(wèi)寧、惠每等行業(yè)軟件或解決方案提供商輸出的行業(yè)特定場景的大模型應(yīng)用,它們都提供了有力的實(shí)踐佐證,能驗(yàn)證至強(qiáng) 在大模型推理上的實(shí)力,以及相比加速器芯片更優(yōu)的成本,以及更易獲取,更易部署、優(yōu)化和使用的優(yōu)勢。

不信你就瞧瞧我們的最“In”AI專區(qū) ,來刷新一下認(rèn)知。

再說AI全流程中大量涉及數(shù)據(jù)處理的環(huán)節(jié)。

實(shí)際業(yè)務(wù)中的AI應(yīng)用,背后往往需要包含大量數(shù)據(jù)的知識庫作為支撐。

這些數(shù)據(jù)通過將海量文本語料壓縮成密集向量的形式存儲(chǔ),并通過高效的相似度搜索迅速找到與查詢最相關(guān)的信息,也就是大家所熟知的向量數(shù)據(jù)庫了。

在這方面,專門針對向量和矩陣計(jì)算優(yōu)化的英特爾 AVX-512指令集和英特爾 AMX加速技術(shù)有了用武之地,可應(yīng)對海量、多維向量數(shù)據(jù)的高并發(fā)和實(shí)時(shí)計(jì)算等挑戰(zhàn)。

業(yè)界知名的向量數(shù)據(jù)庫開發(fā)商如騰訊云和星環(huán)科技等,底層都選擇第五代英特爾 至強(qiáng) 可擴(kuò)展處理器作為承載和加速的平臺(tái)。

騰訊云VectorDB與英特爾合作,在第五代至強(qiáng) 平臺(tái)經(jīng)軟硬件雙方面優(yōu)化后,在提升向量數(shù)據(jù)庫的向量檢索效率方面相比基準(zhǔn)組提升了約2.3倍,在使用英特爾 AMX 加速數(shù)據(jù)格式為INT8的測試場景中再次性能提升達(dá)約5.8倍。

64c1c8ba-f01b-11ee-a297-92fbcf53809c.png

星環(huán)科技則基于第五代至強(qiáng) 可擴(kuò)展處理器推出了Transwarp Hippo 分布式向量數(shù)據(jù)庫解決方案,實(shí)現(xiàn)了約2倍的代際性能提升,可有效滿足大模型時(shí)代海量、高維向量的存儲(chǔ)和計(jì)算需求。

64d40fd4-f01b-11ee-a297-92fbcf53809c.png

△ 圖:星環(huán)科技分布向量數(shù)據(jù)庫Transwarp Hippo產(chǎn)品架構(gòu)

AI全流程中與數(shù)據(jù)相關(guān)的環(huán)節(jié),不止包含可用作大模型外部知識庫的向量數(shù)據(jù)庫這一種。還涉及模型訓(xùn)練前數(shù)據(jù)預(yù)處理,訓(xùn)練中的數(shù)據(jù)調(diào)度,模型上線后的持續(xù)優(yōu)化和維護(hù)、異常數(shù)據(jù)的發(fā)現(xiàn)和處理等

眾所周知,數(shù)據(jù)是AI三要素之一,相當(dāng)于AI的血液和原料,沒有優(yōu)質(zhì)的數(shù)據(jù),再先進(jìn)的算法和模型也是空中樓閣。但原始數(shù)據(jù)往往參差不齊,需要通過數(shù)據(jù)清洗、轉(zhuǎn)換、特征工程等一系列流程,最終才能為AI系統(tǒng)所用。

這些數(shù)據(jù)處理任務(wù)涉及海量邏輯運(yùn)算,以及同樣、甚至更大量級的內(nèi)存操作,如存取、傳輸,對處理速度和時(shí)延要求都非常高,因此通常也是由最離系統(tǒng)內(nèi)存最近、更擅長通用計(jì)算的CPU來承擔(dān)。

第五代英特爾 至強(qiáng) 可擴(kuò)展處理器充分考慮到這些需求,內(nèi)置多款加速器來為數(shù)據(jù)處理提供支持,如:

DSA數(shù)據(jù)流加速器(Data Streaming Accelerator):負(fù)責(zé)優(yōu)化數(shù)據(jù)復(fù)制和轉(zhuǎn)換操作,提高網(wǎng)絡(luò)和存儲(chǔ)性能。 IAA存內(nèi)分析加速器 (In-Memory Analytics Accelerator):提高分析性能,同時(shí)卸載CPU內(nèi)核任務(wù)以加速數(shù)據(jù)庫查詢吞吐量等工作負(fù)載。 QAT數(shù)據(jù)保護(hù)與壓縮加速技術(shù)(QuickAssist Technology):可顯著加速數(shù)據(jù)壓縮、對稱和非對稱數(shù)據(jù)加密解密,提高CPU效率和整體系統(tǒng)性能。 DLB動(dòng)態(tài)負(fù)載均衡器(Dynamic Load Balancer),幫助防止性能瓶頸并實(shí)現(xiàn)低時(shí)延控制平面工作負(fù)載。

在第五代至強(qiáng) 可擴(kuò)展處理器的不同細(xì)分型號中,對上述加速器有靈活的配置或支持方案,并且還支持通過Intel On Demand按需啟用,可以適應(yīng)不同工作負(fù)載的需求。

64f4dce6-f01b-11ee-a297-92fbcf53809c.png

最后,還特別要提到的對數(shù)據(jù)隱私、模型和應(yīng)用安全的更優(yōu)防護(hù),畢竟所有AI場景都不能以犧牲安全為代價(jià),更是有些AI應(yīng)用場景對此格外在意,如在金融、醫(yī)療行業(yè)。

對這些行業(yè)場景來說,能用上基于CPU實(shí)現(xiàn)的硬件級可信執(zhí)行環(huán)境(TEE)技術(shù)來保護(hù)敏感數(shù)據(jù)和代碼免受攻擊可是非常關(guān)鍵的。

如平安科技,就曾使用英特爾 Software Guard Extensions(英特爾 SGX)構(gòu)建聯(lián)邦學(xué)習(xí)解決方案。

平安科技通過英特爾 SGX的“飛地”內(nèi)存區(qū)域,在本地安全地執(zhí)行模型訓(xùn)練,而無需共享原始數(shù)據(jù)。同時(shí)SGX支持安全的多方計(jì)算協(xié)議,如同態(tài)加密、安全聚合等,從而在聯(lián)邦學(xué)習(xí)中實(shí)現(xiàn)了更優(yōu)的隱私保護(hù)。

阿里云則基于最新第五代英特爾 至強(qiáng) 可擴(kuò)展處理器推出了BigDL-LLM 隱私保護(hù)方案。

它在這款全新處理器內(nèi)置的英特爾 Trust Domain Extension (英特爾 TDX)技術(shù)的加持下實(shí)現(xiàn)了對分布式節(jié)點(diǎn)或 AI管道的更優(yōu)防護(hù),從而能讓客戶在不犧牲數(shù)據(jù)隱私的前提下將更多數(shù)據(jù)運(yùn)用到 AI 應(yīng)用中,有效挖掘數(shù)據(jù)價(jià)值,為客戶構(gòu)建更為高效的隱私保護(hù)機(jī)器學(xué)習(xí)方案,助力大模型的廣泛應(yīng)用。

6511e340-f01b-11ee-a297-92fbcf53809c.png

△ 圖:采用英特爾 TDX的BigDL-LLM服務(wù)和調(diào)優(yōu)架構(gòu)

要知道,基于 TEE 的聯(lián)邦學(xué)習(xí)或隱私保護(hù)機(jī)器學(xué)習(xí)技術(shù),可是未來AI在大規(guī)模實(shí)踐中打通和共享多機(jī)構(gòu)數(shù)據(jù)的一大基座。

通過這種技術(shù),不同機(jī)構(gòu)之間才能在保證數(shù)據(jù)安全和隱私的前提下,實(shí)現(xiàn)數(shù)據(jù)的共享和聯(lián)合分析,才能為 AI 的持續(xù)發(fā)展演進(jìn)提供更加豐富和全面的數(shù)據(jù)支持。

搞好AI全流程加速
CPU不能是短板

所以,讓我們從單純的模型加速,將眼界擴(kuò)展到更全面、多維、流水線化的AI平臺(tái)應(yīng)用,不難預(yù)見,隨著這種平臺(tái)級應(yīng)用的成熟與走向?qū)崙?zhàn),我們對小到AI加速服務(wù)器,大到AI基礎(chǔ)設(shè)施的期望也在不斷拓展和升級。

僅僅關(guān)注AI模型本身以及GPU、專用加速器的性能,會(huì)越來越像一個(gè)單點(diǎn)化的思維。

未來大家必須更重視整個(gè)AI平臺(tái)中多種硬件與軟件的搭配及協(xié)同工作,這其中CPU作為主控、加速、輔助的多面手,對于補(bǔ)齊整個(gè)平臺(tái)的短板,提升整個(gè)平臺(tái)的質(zhì)量至關(guān)重要。

這或許就是在如今的技術(shù)浪潮下,以第五代英特爾 至強(qiáng) 可擴(kuò)展處理器為代表的高端CPU,依然會(huì)在AI服務(wù)器或基礎(chǔ)設(shè)施市場中贏得一席之地的根因。

畢竟,高端CPU的作用不僅是直接上手加速AI推理,還關(guān)系到整個(gè)AI平臺(tái)或系統(tǒng)整體性能的提升,更是提供更加穩(wěn)定和安全的運(yùn)行環(huán)境來拓展AI的邊界,只有這幾個(gè)環(huán)節(jié)都照顧到,才能推動(dòng)AI Everywhere愿景進(jìn)一步走向現(xiàn)實(shí)。

或者簡言之,AI如果要真正走向更多的實(shí)用場景,又怎么能少得了更強(qiáng)大、更可靠、更全面多能的CPU呢?

文章轉(zhuǎn)載自:量子位

作者:金磊 夢晨



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20242

    瀏覽量

    251688
  • 人工智能
    +關(guān)注

    關(guān)注

    1816

    文章

    50062

    瀏覽量

    264926
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    307

    瀏覽量

    6508
  • AI加速器
    +關(guān)注

    關(guān)注

    1

    文章

    73

    瀏覽量

    9486

原文標(biāo)題:最“in”AI | 為什么說GPU再火,AI平臺(tái)也少不了強(qiáng)力的CPU

文章出處:【微信號:英特爾中國,微信公眾號:英特爾中國】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPU 利用率<30%?這款開源智算云平臺(tái)讓算力不浪費(fèi) 1%

    作為 AI 開發(fā)者,你是否早已受夠這些困境:花數(shù)百萬采購的 GPU 集群,利用率常年低于 30%,算力閑置如同燒錢;跨 CPU/GPU/NPU 異構(gòu)資源調(diào)度難如登天,模型訓(xùn)練卡在資源分
    的頭像 發(fā)表于 01-26 14:20 ?153次閱讀

    AI硬件全景解析:CPUGPU、NPU、TPU的差異化之路,一文看懂!?

    CPU作為“通用基石”,支撐所有設(shè)備的基礎(chǔ)運(yùn)行;GPU憑借并行算力,成為AI訓(xùn)練與圖形處理的“主力”;TPU在Google生態(tài)中深耕云端大模型訓(xùn)練;NPU則讓AI從“云端”走向“身邊”
    的頭像 發(fā)表于 12-17 17:13 ?1645次閱讀
    <b class='flag-5'>AI</b>硬件全景解析:<b class='flag-5'>CPU</b>、<b class='flag-5'>GPU</b>、NPU、TPU的差異化之路,一文看懂!?

    瑞芯微這幾年為啥那么?

    技術(shù)過硬,同時(shí)抓住了AI風(fēng)口,下面從幾個(gè)角度來描述一下瑞芯微。 1、瑞芯微CPU的技術(shù) AI算力:AI時(shí)代,你
    發(fā)表于 10-20 15:50

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    的工作嗎? 從書中了解到了AI芯片都有哪些?像CPUGPU、FPGA、ASIC都是AI芯片。 其他的還是知道的,F(xiàn)PGA屬于
    發(fā)表于 09-12 16:07

    CPUGPU,渲染技術(shù)如何重塑游戲、影視與設(shè)計(jì)?

    渲染技術(shù)是計(jì)算機(jī)圖形學(xué)的核心內(nèi)容之一,它是將三維場景轉(zhuǎn)換為二維圖像的過程。渲染技術(shù)一直在不斷演進(jìn),從最初的CPU渲染到后來的GPU渲染,性能和質(zhì)量都有了顯著提升。從CPUGPU:技術(shù)
    的頭像 發(fā)表于 09-01 12:16 ?953次閱讀
    從 <b class='flag-5'>CPU</b> 到 <b class='flag-5'>GPU</b>,渲染技術(shù)如何重塑游戲、影視與設(shè)計(jì)?

    aicube的n卡gpu索引該如何添加?

    請問有人知道aicube怎樣才能讀取n卡的gpu索引呢,我已經(jīng)安裝了cuda和cudnn,在全局的py里添加了torch,能夠調(diào)用gpu,當(dāng)還是只能看到默認(rèn)的gpu0,顯示不了
    發(fā)表于 07-25 08:18

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】+NVlink技術(shù)從應(yīng)用到原理

    前言 【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」書中的芯片知識是比較接近當(dāng)前的頂尖芯片水平的,同時(shí)包含了芯片架構(gòu)的基礎(chǔ)知識,但該部分知識比較晦澀難懂,或許是由于我一直從事的事芯片
    發(fā)表于 06-18 19:31

    智算加速卡是什么東西?它真能在AI戰(zhàn)場上干掉GPU和TPU!

    隨著AI技術(shù)得一塌糊涂,大家都在談"大模型"、"AI加速"、"智能計(jì)算",可真到了落地環(huán)節(jié),算力才是硬通貨。你有沒有發(fā)現(xiàn),現(xiàn)在越來越多的AI企業(yè)不光用
    的頭像 發(fā)表于 06-05 13:39 ?1615次閱讀
    智算加速卡是什么東西?它真能在<b class='flag-5'>AI</b>戰(zhàn)場上干掉<b class='flag-5'>GPU</b>和TPU!

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗(yàn)】+讀《零基礎(chǔ)開發(fā)AI Agent》掌握扣子平臺(tái)開發(fā)智能體方法

    景,開發(fā)要點(diǎn),運(yùn)行效果做了闡述。書的目錄清晰明了,對內(nèi)容的說明精要明晰,是一本容易上手AI Agent開發(fā)的好書。 要學(xué)習(xí)好該書,我們要接合扣子平臺(tái)官網(wǎng)https://www.coze.cn
    發(fā)表于 05-14 19:51

    超越CPU/GPU:NPU如何讓AI“輕裝上陣”?

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)NPU是一種專門為人工智能(AI)計(jì)算設(shè)計(jì)的處理器,主要用于高效執(zhí)行神經(jīng)網(wǎng)絡(luò)相關(guān)的運(yùn)算(如矩陣乘法、卷積、激活函數(shù)等)。相較于傳統(tǒng)CPU/GPU,NPU在能效比
    的頭像 發(fā)表于 04-18 00:05 ?3939次閱讀

    一夜爆的DeepSeek一體機(jī),如何改寫AI游戲規(guī)則?

    DeepSeek一體機(jī),都不好意思自己懂AI?!?所謂一體機(jī),通常匯集了中央處理器(CPU)、圖形處理器(GPU)、存儲(chǔ)器、操作系統(tǒng)、AI
    的頭像 發(fā)表于 03-11 15:52 ?1186次閱讀
    一夜爆<b class='flag-5'>火</b>的DeepSeek一體機(jī),如何改寫<b class='flag-5'>AI</b>游戲規(guī)則?

    AI時(shí)代的無源元件挑戰(zhàn)和解決方案

    如今在科技圈,超的話題非AI(人工智能)莫屬。特別是隨著生成式AI的興起,AI能力的進(jìn)化明顯加速,隔不了多久新來的“后浪”就會(huì)讓原有的技術(shù)
    的頭像 發(fā)表于 03-06 11:36 ?1139次閱讀
    <b class='flag-5'>AI</b>時(shí)代的無源元件挑戰(zhàn)和解決方案

    使用OpenVINO 2024.4.0部署AI_GUARD實(shí)現(xiàn)智能在線監(jiān)管系統(tǒng)平臺(tái)

    AI_GUARD是一個(gè)基于Intel x86 CPU + IntelArc GPU(A370M)硬件平臺(tái),實(shí)現(xiàn)大模型(Qwen)+小模型+私域數(shù)據(jù)庫融合的在線
    的頭像 發(fā)表于 03-03 15:30 ?1493次閱讀
    使用OpenVINO 2024.4.0部署<b class='flag-5'>AI</b>_GUARD實(shí)現(xiàn)智能在線監(jiān)管系統(tǒng)<b class='flag-5'>平臺(tái)</b>

    AI推理帶的ASIC,開發(fā)成敗在此一舉!

    電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)去年年底,多家大廠爆出開發(fā)數(shù)據(jù)中心ASIC芯片的消息,包括傳聞蘋果與博通合作開發(fā)面向AI推理的ASIC,亞馬遜在年底公布了其AI?ASIC的應(yīng)用實(shí)例,展示出ASIC
    的頭像 發(fā)表于 03-03 00:13 ?4782次閱讀
    <b class='flag-5'>AI</b>推理帶<b class='flag-5'>火</b>的ASIC,開發(fā)成敗在此一舉!

    燧原科技助力美圖AI換裝全球爆

    2025蛇年元宵后,美圖公司旗下美顏相機(jī)憑借“AI換裝”功能爆,獲得了國內(nèi)外用戶的極大青睞,App下載量和使用量迅速激增的同時(shí),面臨了海量推理算力即時(shí)支持的挑戰(zhàn)。
    的頭像 發(fā)表于 02-25 16:47 ?1700次閱讀