chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是預(yù)訓(xùn)練 AI 模型?

NVIDIA英偉達 ? 來源:未知 ? 2023-04-04 01:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

預(yù)訓(xùn)練 AI 模型是為了完成特定任務(wù)而在大型數(shù)據(jù)集上訓(xùn)練的深度學(xué)習(xí)模型。這些模型既可以直接使用,也可以根據(jù)不同行業(yè)的應(yīng)用需求進行自定義。

如果要教一個剛學(xué)會走路的孩子什么是獨角獸,那么我們首先應(yīng)該向孩子展示這種生物的圖像并描述其獨有特征。

那么,如果要教一臺人工智能(AI)機器什么是獨角獸,該從什么地方做起呢?

預(yù)訓(xùn)練 AI 模型提供了解決方案。

預(yù)訓(xùn)練 AI 模型是一種為了完成某項特定任務(wù)而在大型數(shù)據(jù)集上進行訓(xùn)練的深度學(xué)習(xí)模型,它是一種類腦神經(jīng)算法的表現(xiàn)形式,可以根據(jù)數(shù)據(jù)找到模式或進行預(yù)測。預(yù)訓(xùn)練 AI 模型既可以直接使用,也可以根據(jù)某個應(yīng)用的具體需求進行進一步微調(diào)。

為什么使用預(yù)訓(xùn)練 AI 模型?

開發(fā)者可以使用預(yù)訓(xùn)練模型并根據(jù)需求對其進行自定義,無需從頭開始構(gòu)建 AI 模型。

無論是識別一匹虛構(gòu)的馬,檢測自動駕駛汽車的安全隱患,還是根據(jù)醫(yī)學(xué)影像診斷癌癥,要構(gòu)建一個 AI 應(yīng)用,開發(fā)者首先需要一個能夠完成特定任務(wù)的 AI 模型。而這個模型需要大量具有代表性的數(shù)據(jù)進行學(xué)習(xí)。

模型的學(xué)習(xí)過程需要經(jīng)歷好幾層傳入數(shù)據(jù),并在每一層強調(diào)與目標(biāo)相關(guān)的特征。

例如,在創(chuàng)建一個能夠識別獨角獸的模型時,首先會為其提供獨角獸、馬、貓、老虎和其他動物的圖像作為傳入數(shù)據(jù)。

然后再構(gòu)建具有代表性的數(shù)據(jù)特征層。從線條、顏色等簡單特征開始,深入到復(fù)雜的結(jié)構(gòu)特征。依據(jù)計算出的概率,這些特征將被賦予不同程度的相關(guān)性。

舉個例子,當(dāng)一個生物看起來越像馬,它是獨角獸而不是貓或老虎的概率就越大。這些概率值被存儲在 AI 模型的每個神經(jīng)網(wǎng)絡(luò)層。隨著層數(shù)的增加,模型對表征的理解程度也在提高。

若要從頭開始創(chuàng)建一個這樣的模型,開發(fā)者通常需要調(diào)用包含數(shù)十億行數(shù)據(jù)的巨大數(shù)據(jù)集,并且這些數(shù)據(jù)可能十分昂貴且難以獲得。但如果因此在數(shù)據(jù)上讓步,就會導(dǎo)致模型性能不佳。

預(yù)先計算的概率表征(也稱權(quán)重)能夠節(jié)省開發(fā)者或企業(yè)的時間、金錢和精力。已建立完成的預(yù)訓(xùn)練模型可通過這些權(quán)重進行訓(xùn)練。

高質(zhì)量的預(yù)訓(xùn)練模型搭配大量準(zhǔn)確且具有代表性的權(quán)重可以提高 AI 部署的成功率。

權(quán)重可以被修改,而且可以通過添加更多數(shù)據(jù)為模型進行進一步的自定義或微調(diào)。

在預(yù)訓(xùn)練模型基礎(chǔ)上進行構(gòu)建的開發(fā)者可以更快創(chuàng)建出 AI 應(yīng)用,因為他們無需處理堆積如山的傳入數(shù)據(jù)或去計算密集的數(shù)據(jù)層的概率。

換言之,使用預(yù)訓(xùn)練 AI 模型就像是用一件成衣根據(jù)自己的需求進行剪裁,而不用從布料和針線做起。

預(yù)訓(xùn)練 AI 模型通常被用于遷移學(xué)習(xí),可以基于多種模型架構(gòu)類型而構(gòu)建。其中一種流行的架構(gòu)類型是 Transformer 模型,一種通過追蹤連續(xù)數(shù)據(jù)中的關(guān)系來學(xué)習(xí)上下文和意義的神經(jīng)網(wǎng)絡(luò)。

AI 公司 Clarifai 是NVIDIA 初創(chuàng)加速計劃的高級合作伙伴。Clarifai 的平臺高級副總裁 Alfredo Ramos 表示,預(yù)訓(xùn)練模型可以將 AI 應(yīng)用的開發(fā)時間縮短一年并節(jié)約數(shù)十萬美元的成本。

預(yù)訓(xùn)練模型如何推動 AI 的發(fā)展?

預(yù)訓(xùn)練模型簡化并加快了 AI 的開發(fā),許多開發(fā)者和公司通過它們來加速各種 AI 用例。

預(yù)訓(xùn)練模型主要推動了以下幾個領(lǐng)域的 AI 發(fā)展:

  • 自然語言處理:預(yù)訓(xùn)練模型被用于翻譯、聊天機器人等自然語言處理應(yīng)用。大型語言模型一般基于 Transformer 模型架構(gòu)構(gòu)建,是預(yù)訓(xùn)練模型的延伸。世界上最大的 AI 模型之一NVIDIA NeMo Megatron就是一個預(yù)訓(xùn)練大型語言模型。

  • 語音 AI:預(yù)訓(xùn)練模型能幫助語音 AI 應(yīng)用在不同的語言下也能直接使用。用例包括呼叫中心自動化、AI 助手和語音識別技術(shù)。

  • 計算機視覺:如上文所述的獨角獸模型,預(yù)訓(xùn)練模型可以幫助 AI 快速識別生物或者物體、地點和人。預(yù)訓(xùn)練模型通過這種方式加速計算機視覺,為體育運動、智慧城市等領(lǐng)域的應(yīng)用提供近似于人類的視覺能力。

  • 醫(yī)療:在醫(yī)療應(yīng)用方面,MegaMolBART(NVIDIA BioNeMo服務(wù)和框架的一部分)等預(yù)訓(xùn)練 AI 模型能夠理解化學(xué)語言并學(xué)習(xí)現(xiàn)實世界分子中原子之間的關(guān)系,為科學(xué)界提供了一種加快藥物研發(fā)的強大工具。

  • 網(wǎng)絡(luò)安全:預(yù)訓(xùn)練模型為實施 AI 網(wǎng)絡(luò)安全解決方案打下了基礎(chǔ),并幫助人類安全分析師更快的發(fā)現(xiàn)威脅。包括人類和機器的數(shù)字指紋及異常、敏感信息和網(wǎng)絡(luò)釣魚檢測等多種情況。

  • 藝術(shù)和創(chuàng)作流程:為推動最新的 AI 藝術(shù)浪潮,預(yù)訓(xùn)練模型可以在GauGANNVIDIA Canvas等工具的幫助下加快創(chuàng)作流程。

預(yù)訓(xùn)練 AI 模型的自定義和微調(diào)為其帶來了無限的應(yīng)用可能性,因此也可以用于更多其他行業(yè)。

何處獲取預(yù)訓(xùn)練 AI 模型

谷歌、Meta、微軟、NVIDIA 等公司正在發(fā)明用于構(gòu)建 AI 模型的尖端模型架構(gòu)和框架。

這些模型有時會在模型中心或作為開放源碼發(fā)布,使開發(fā)者能夠?qū)︻A(yù)訓(xùn)練 AI 模型進行微調(diào)、提高其準(zhǔn)確性并擴展模型庫。

NVIDIA NGC匯集了通過 GPU 優(yōu)化的 AI 軟件、模型和 Jupyter Notebook 示例,包括各種預(yù)訓(xùn)練模型以及為 NVIDIA AI 平臺優(yōu)化的 AI 基準(zhǔn)和訓(xùn)練方式。

NVIDIA AI Enterprise是一套全面且安全的云原生 AI 與數(shù)據(jù)分析軟件套件,包含未加密的預(yù)訓(xùn)練模型。這讓希望將 NVIDIA 預(yù)訓(xùn)練模型整合到其自定義 AI 應(yīng)用中的開發(fā)者和企業(yè)能夠查看模型權(quán)重和偏差、提高可解釋性并輕松進行調(diào)試。

在 GitHub、Hugging Face 等平臺也有數(shù)千個可供使用的開源模型。

十分重要的是,在訓(xùn)練預(yù)訓(xùn)練模型時,模型數(shù)據(jù)必須透明、可解釋、符合隱私要求,并且是獲得同意許可且無偏見的道德數(shù)據(jù)。

NVIDIA 預(yù)訓(xùn)練 AI 模型

為幫助更多開發(fā)者將 AI 原型投入到生產(chǎn)中,NVIDIA 提供了幾種開箱即用的預(yù)訓(xùn)練模型:

  • NVIDIA SegFormer是一個在 GitHub 上提供的 Transformer 模型,可實現(xiàn)簡單、高效、強大的語義分割。

  • NVIDIA 的專用計算機視覺模型經(jīng)數(shù)百萬張圖像訓(xùn)練而成,可用于智慧城市、停車管理等應(yīng)用。

  • NVIDIA NeMo Megatron是一個大型可定制語言模型,包含在 NVIDIA NeMo 中。NeMo 是一個用于構(gòu)建靈活、高性能對話式 AI、語音 AI 和生物學(xué)應(yīng)用的開源框架。

  • NVIDIA StyleGAN是一個基于風(fēng)格的生成器架構(gòu),用于生成式對抗網(wǎng)絡(luò)(或稱 GAN)。它可以使用遷移學(xué)習(xí)來無限生成各種不同風(fēng)格的繪畫。

除此之外,NVIDIA 還能夠提供:

  • NVIDIA Riva:一款用于構(gòu)建和部署語音 AI 應(yīng)用的 GPU 加速軟件開發(fā)工具包,包含了十種語言的預(yù)訓(xùn)練模型。

  • MONAI:由 NVIDIA 和倫敦國王學(xué)院聯(lián)合開發(fā)的開源醫(yī)療研究 AI 框架,包含了用于醫(yī)學(xué)影像的預(yù)訓(xùn)練模型

點擊閱讀原文,進一步了解NVIDIA 預(yù)訓(xùn)練 AI 模型。

掃描海報二維碼,即可觀看 NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛 GTC23 主題演講重播!


原文標(biāo)題:什么是預(yù)訓(xùn)練 AI 模型?

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關(guān)注

    關(guān)注

    23

    文章

    4112

    瀏覽量

    99589

原文標(biāo)題:什么是預(yù)訓(xùn)練 AI 模型?

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI模型微調(diào)企業(yè)項目實戰(zhàn)課

    業(yè)、守規(guī)矩、可完全掌控的專屬 AI 底座,已經(jīng)成為頭部企業(yè)的隱性共識。 二、 核心破局:微調(diào)——用極低成本撬動專業(yè)能力 很多企業(yè)對“自主訓(xùn)練模型”存在誤解,認(rèn)為這需要像頂級科技巨頭那樣,耗費千萬算力
    發(fā)表于 04-16 18:48

    AI模型訓(xùn)練與部署實戰(zhàn) | 線下免費培訓(xùn)

    你是否想系統(tǒng)了解AI落地全鏈路,但缺少一個完整的實戰(zhàn)項目練手?模型部署環(huán)節(jié)繁多,缺乏一套清晰的實戰(zhàn)路徑?4月18日、4月25日、5月16日RT-Thread將分別在蘇州、成都、南京舉辦“AI
    的頭像 發(fā)表于 04-07 13:08 ?581次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>與部署實戰(zhàn) | 線下免費培訓(xùn)

    如何訓(xùn)練自己的AI模型——RT-Thread×富瀚微FH8626V300L模型訓(xùn)練部署教程 | 技術(shù)集結(jié)

    面對消費電子中紛繁的智能檢測需求,如何讓算法持續(xù)進化?富瀚微最新發(fā)布的FH86X6V300芯片AI訓(xùn)練教程,以FH8626V300L為硬件核心,手把手帶您走通從模型訓(xùn)練到端側(cè)部署的完整
    的頭像 發(fā)表于 02-09 11:51 ?580次閱讀
    如何<b class='flag-5'>訓(xùn)練</b>自己的<b class='flag-5'>AI</b><b class='flag-5'>模型</b>——RT-Thread×富瀚微FH8626V300L<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>部署教程 | 技術(shù)集結(jié)

    RA8P1部署ai模型指南:從訓(xùn)練模型到部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項目能否落地。我們帶你基于RA8P1平臺,跑通從數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、量
    的頭像 發(fā)表于 11-20 18:06 ?2336次閱讀
    RA8P1部署<b class='flag-5'>ai</b><b class='flag-5'>模型</b>指南:從<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>到部署?|?本周六

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    、分布式群體智能 1)物聯(lián)網(wǎng)AGI系統(tǒng) 優(yōu)勢: 組成部分: 2)分布式AI訓(xùn)練 7、發(fā)展重點:基于強化學(xué)習(xí)的后訓(xùn)練與推理 8、超越大模型:神經(jīng)符號計算 三、AGI芯片的實現(xiàn) 1、技術(shù)需
    發(fā)表于 09-18 15:31

    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來,機器人操作領(lǐng)域的VLA模型普遍基于跨本體機器人數(shù)據(jù)集預(yù)訓(xùn)練,這類方法存在兩大局限:不同機器人本體和動作空間的差異導(dǎo)致統(tǒng)一訓(xùn)練困難;現(xiàn)有大規(guī)模機器人演示數(shù)據(jù)稀缺且質(zhì)量參差不齊。得
    的頭像 發(fā)表于 08-21 09:56 ?1205次閱讀
    基于大規(guī)模人類操作數(shù)據(jù)<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的VLA<b class='flag-5'>模型</b>H-RDT

    在K230中,如何使用AI Demo中的object_detect_yolov8n,YOLOV8多目標(biāo)檢測模型?

    在K230的AI開發(fā)教程文檔中,可以看到有源碼的AI Demo,其中包括yolov8n模型,在倉庫里可以看到源碼 我想請問各位大佬,如何使用這個程序?如何更改程序,替換為我自己的數(shù)據(jù)集和
    發(fā)表于 08-07 06:48

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    摩爾線程“AI工廠”:五大核心技術(shù)支撐,打造大模型訓(xùn)練超級工廠

    演講中表示,為應(yīng)對生成式AI爆發(fā)式增長下的大模型訓(xùn)練效率瓶頸,摩爾線程將通過系統(tǒng)級工程創(chuàng)新,構(gòu)建新一代AI訓(xùn)練基礎(chǔ)設(shè)施,致力于為AGI時代打
    的頭像 發(fā)表于 07-28 11:28 ?4817次閱讀
    摩爾線程“<b class='flag-5'>AI</b>工廠”:五大核心技術(shù)支撐,打造大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>超級工廠

    嵌入式AI技術(shù)漫談:怎么為訓(xùn)練AI模型采集樣本數(shù)據(jù)

    多少數(shù)據(jù),才能形成合適的樣本集,進而開始訓(xùn)練模型呢? 此時,回答“按需提供”或者“先試試看”似乎會變成一句車轱轆話,看似回答了問題,但客戶還是無從下手。 AI數(shù)據(jù)樣本的三個原則 這里,我以教孩子認(rèn)識蘋果和鴨梨為例進行說明。假設(shè)
    的頭像 發(fā)表于 06-11 16:30 ?1522次閱讀

    海思SD3403邊緣計算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級AI攝像機,進行
    發(fā)表于 04-28 11:11

    Deepseek海思SD3403邊緣計算AI產(chǎn)品系統(tǒng)

    海思SD3403邊緣計算AI框架,提供了一套開放式AI訓(xùn)練產(chǎn)品工具包,解決客戶低成本AI系統(tǒng),針對差異化AI 應(yīng)用場景,自己采集樣本數(shù)據(jù),進
    發(fā)表于 04-28 11:05

    模型時代的深度學(xué)習(xí)框架

    量是約為 25.63M,在ImageNet1K數(shù)據(jù)集上,使用單張消費類顯卡 RTX-4090只需大約35~40個小時 ,即可完成ResNet50模型預(yù)訓(xùn)練。在 大模型時代 ,由于大
    的頭像 發(fā)表于 04-25 11:43 ?950次閱讀
    大<b class='flag-5'>模型</b>時代的深度學(xué)習(xí)框架

    AI原生架構(gòu)升級:RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的算力突破

    近年來,隨著千億級參數(shù)模型的崛起,AI訓(xùn)練對算力的需求呈現(xiàn)指數(shù)級增長。傳統(tǒng)服務(wù)器架構(gòu)在應(yīng)對分布式訓(xùn)練、高并發(fā)計算和顯存優(yōu)化等場景時逐漸顯露瓶頸。而RAKsmart為超大規(guī)模
    的頭像 發(fā)表于 04-24 09:27 ?890次閱讀