chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook研究開放新框架,讓深度學(xué)習(xí)更加容易

獨(dú)愛72H ? 來源:讀芯術(shù) ? 作者:讀芯術(shù) ? 2020-03-13 15:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

(文章來源:讀芯術(shù))

FAIR一直是深度學(xué)習(xí)領(lǐng)域研究和開源框架的定期貢獻(xiàn)者。從PyTorch到ONNX, FAIR團(tuán)隊(duì)為實(shí)現(xiàn)深度學(xué)習(xí)應(yīng)用程序的簡(jiǎn)化做出了不可思議的貢獻(xiàn)。在過去幾周里,F(xiàn)AIR增加了三個(gè)新的系列開源框架。Polygames是一個(gè)開源的研究框架,通過自我游戲的方式來訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)。Polygames基于著名的“零學(xué)習(xí)”概念,即允許代理無需進(jìn)行任何預(yù)先設(shè)定的訓(xùn)練,而是通過與環(huán)境交互來掌握環(huán)境。

乍看之下,Polygames似乎與Alpha Zero或ELF OpenGo等其他游戲?qū)W習(xí)框架類似,但FAIR堆棧也有自己的貢獻(xiàn)。對(duì)于初學(xué)者來說,Polygames支持更廣泛的戰(zhàn)略游戲列表,如Hex、Havannah、Minishogi、Connect6、Minesweeper、Mastermind、EinStein wurfelt nicht!、Nogo和Othello。他們?yōu)檠芯咳藛T提供了更廣泛的環(huán)境來測(cè)試深度學(xué)習(xí)網(wǎng)絡(luò)。

此外,Polygames還以一個(gè)巧妙的架構(gòu)擴(kuò)展了傳統(tǒng)的零學(xué)習(xí)概念,該架構(gòu)結(jié)合了深度神經(jīng)網(wǎng)絡(luò)和蒙特卡羅樹搜索方法。這種架構(gòu)允許網(wǎng)絡(luò)泛化到更多的任務(wù)和環(huán)境。Polygames框架的一個(gè)意想不到的好處是代理中神經(jīng)可塑性的創(chuàng)建。Polygames的模型是漸進(jìn)式的——框架帶有一個(gè)用于添加新層和通道或增加內(nèi)核寬度的腳本——它們能夠進(jìn)行熱啟動(dòng)訓(xùn)練,允許神經(jīng)網(wǎng)絡(luò)隨訓(xùn)練成長。

編程模型的角度來看,Polygames提供了一個(gè)包含游戲的庫,以及一個(gè)實(shí)現(xiàn)游戲的單文件API。開發(fā)人員的經(jīng)驗(yàn)是基于PyTorch的,因此易于上手。

FAIR團(tuán)隊(duì)在Polygames上取得了一些里程碑式的成績,包括在Hex19游戲中擊敗人類頂級(jí)玩家。該游戲由詩人、數(shù)學(xué)家皮特·海因(Piet Hein)、 約翰·納什(John Nash)和經(jīng)濟(jì)學(xué)家于20世紀(jì)40年代開發(fā),它挑戰(zhàn)了一些傳統(tǒng)的人類游戲思維過程。規(guī)則很簡(jiǎn)單。黑色和白色依次填充一個(gè)空單元格。如果把北方和南方連接起來,黑人就贏了;如果把西方和東方連接起來,白人就贏了。餡餅規(guī)則使游戲更加公平:在第二次移動(dòng)時(shí),第二個(gè)玩家可以決定交換顏色。這款游戲之所以困難,是因?yàn)樽鳛橐豢钸B接游戲,它的獎(jiǎng)勵(lì)是基于全局而非局部的標(biāo)準(zhǔn)。

在一系列的實(shí)驗(yàn)中,Polygames在Hex游戲中擊敗了人類中的頂尖玩家。結(jié)果如下圖所示,在圖中,人類玩家操縱白色棋子。第一個(gè)圖像表示Hex的開局。在游戲的第二階段,人類(白色)似乎贏了——兩個(gè)堅(jiān)實(shí)的組分別連接到東和西,并互相互靠近連接。然而,Polygames能夠扭轉(zhuǎn)這種局面,創(chuàng)造了一個(gè)相當(dāng)復(fù)雜的中心位置。隨著Polygames使用兩個(gè)可能的路徑之一,它找到了一個(gè)成功的組合并展開了這個(gè)位置。

PyTorch3D是一個(gè)用于在3D環(huán)境中訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)的框架。盡管有大量的視覺智能系統(tǒng)需要在現(xiàn)實(shí)環(huán)境中運(yùn)行,但在3D環(huán)境中訓(xùn)練這類智能體的工具和框架仍然受到高度限制。PyTorch3D是一個(gè)高度模塊化和優(yōu)化的庫,具有獨(dú)特的功能,旨在讓使用PyTorch的3D深度學(xué)習(xí)更容易。PyTorch3D為快速可微的3D數(shù)據(jù)提供了一組常用的3D操作符和損失函數(shù),以及一個(gè)模塊化可微繪制API,使研究人員能夠立即將這些函數(shù)導(dǎo)入當(dāng)前最先進(jìn)的深度學(xué)習(xí)系統(tǒng)。

PyTorch3D利用了最近在3D深度學(xué)習(xí)方面的幾個(gè)最新里程碑,如FAIR的MeshR-CNN,它實(shí)現(xiàn)了復(fù)雜室內(nèi)空間圖像的完整3D對(duì)象重建。該框架還使用Detectron2,這是一個(gè)高度優(yōu)化的2D識(shí)別庫,可以成功將對(duì)象理解推向第三維。PyTorch3D處理旋轉(zhuǎn)和3D轉(zhuǎn)換的功能也是創(chuàng)建C3DPO的核心,C3DPO是一種使用較少注釋的訓(xùn)練數(shù)據(jù)學(xué)習(xí)圖像和3D形狀之間關(guān)聯(lián)的新方法。

探索高維數(shù)據(jù)是深度學(xué)習(xí)應(yīng)用的挑戰(zhàn)之一。HiPlot是一個(gè)交互式可視化工具,它幫助人工智能研究人員發(fā)現(xiàn)高維數(shù)據(jù)中的相關(guān)性和模式,并使用平行圖和其他圖形方式來表示信息。HiPlot使用一種稱為平行圖的技術(shù),這是一種可視化和過濾高維數(shù)據(jù)的方便做法。

從功能的角度來看,HiPlot與其他可視化工具相比有以下幾個(gè)優(yōu)勢(shì):交互性:在HiPlot中,平行圖是交互式的,這使得在不同的場(chǎng)景中可視化很容易。例如,你可以專注于沿著一個(gè)或多個(gè)軸獲取范圍或值,根據(jù)另一個(gè)軸設(shè)置配色方案,重新排序或刪除軸,或提取特定的數(shù)據(jù)選擇。簡(jiǎn)潔性:使用Hiplot只需要幾行代碼。通過帶有“Hiplot”命令的服務(wù)器,就可以通過一個(gè)給定的URL訪問它,并使用它來可視化、管理和共享實(shí)驗(yàn)?;诜N群的訓(xùn)練可視化:HiPlot提供了一種簡(jiǎn)單的方法來可視化XY圖中基于種群的訓(xùn)練實(shí)驗(yàn),該圖中,不同數(shù)據(jù)點(diǎn)之間是有邊緣的。這種可視化在深度學(xué)習(xí)實(shí)驗(yàn)中非常普遍。

在深度學(xué)習(xí)的幾個(gè)領(lǐng)域,F(xiàn)acebook的FAIR團(tuán)隊(duì)還在繼續(xù)創(chuàng)新,并積極為開源社區(qū)做出貢獻(xiàn)。PyTorch3D、Polygames和HiPlot是FAIR的最新貢獻(xiàn),旨在實(shí)現(xiàn)深度學(xué)習(xí)應(yīng)用程序的簡(jiǎn)化。
(責(zé)任編輯:fqj)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1432

    瀏覽量

    59321
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5603

    瀏覽量

    124605
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深入剖析MDS-100BPS18 BA醫(yī)療AC - DC開放框架電源

    深入剖析MDS-100BPS18 BA醫(yī)療AC - DC開放框架電源 在醫(yī)療電子設(shè)備的設(shè)計(jì)中,電源的穩(wěn)定性和安全性至關(guān)重要。今天我們要詳細(xì)探討的是MDS-100BPS18 BA這款醫(yī)療AC
    的頭像 發(fā)表于 03-27 18:05 ?955次閱讀

    強(qiáng)化學(xué)習(xí)會(huì)自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    是一種機(jī)器通過“試錯(cuò)”學(xué)會(huì)決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,模型去模仿;而強(qiáng)化學(xué)習(xí)不會(huì)把每一步的“正確答案”都告訴
    的頭像 發(fā)表于 01-31 09:34 ?810次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)<b class='flag-5'>讓</b>自動(dòng)駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?333次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?309次閱讀

    無壓燒結(jié)銀膏在框架容易發(fā)生樹脂析出的原因和解決辦法

    燒結(jié)優(yōu)化的產(chǎn)品,但其配方可能對(duì)某些特定的基板或工藝條件更為敏感。樹脂成分如果與某些框架鍍層的兼容性不佳,就容易發(fā)生分離和析出。 系統(tǒng)的解決辦法 解決這個(gè)問題需要從基板、工藝和設(shè)備三方面系統(tǒng)性地進(jìn)行排查
    發(fā)表于 10-08 09:23

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?1027次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1182次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4346次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識(shí)別、圖像識(shí)別、自然語言處理等領(lǐng)域,深度
    發(fā)表于 07-14 14:50 ?1306次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    大模型推理顯存和計(jì)算量估計(jì)方法研究

    ,如乘法、加法等; (2)根據(jù)各層計(jì)算操作的類型和復(fù)雜度,確定每層所需的計(jì)算量; (3)將各層計(jì)算量相加,得到模型總的計(jì)算量。 基于硬件加速的算力估計(jì) 隨著硬件加速技術(shù)的發(fā)展,許多深度學(xué)習(xí)框架支持
    發(fā)表于 07-03 19:43

    思嵐科技AI工業(yè)機(jī)器人開放底盤Phoebus P350全新發(fā)布:深度學(xué)習(xí)導(dǎo)航+300KG負(fù)載

    工業(yè)4.0時(shí)代,智能搬運(yùn)的“底盤力”決定效率天花板。 SLAMTEC全新推出 Phoebus P350工業(yè)級(jí)機(jī)器人底盤 ,以 “開放AI架構(gòu)+深度學(xué)習(xí)導(dǎo)航” 為核心,融合300KG超強(qiáng)負(fù)載、60cm
    的頭像 發(fā)表于 05-12 11:33 ?1605次閱讀
    思嵐科技AI工業(yè)機(jī)器人<b class='flag-5'>開放</b>底盤Phoebus P350全新發(fā)布:<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>導(dǎo)航+300KG負(fù)載

    大模型時(shí)代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時(shí)代 ,AI模型的參數(shù)規(guī)模都在百萬級(jí)別,僅需在單張消費(fèi)類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型參數(shù)量是約為 25.63M,在ImageNet1K數(shù)據(jù)集上,使用單張消費(fèi)類顯卡 RTX-4090只需大約35~40個(gè)小時(shí) ,即可完成ResNet50模型的預(yù)訓(xùn)練。在 大模型時(shí)代 ,由于大模型參數(shù)規(guī)模龐大,無法跟CNN時(shí)代的小模型一樣在單張顯卡上完成訓(xùn)練,需要構(gòu)建多張AI加速卡的集群才能完成AI大模型的預(yù)訓(xùn)練
    的頭像 發(fā)表于 04-25 11:43 ?950次閱讀
    大模型時(shí)代的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>框架</b>