chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

1024塊TPU在燃燒!將BERT預(yù)訓(xùn)練模型的訓(xùn)練時(shí)長(zhǎng)從3天縮減到了76分鐘

電子工程師 ? 來源:lp ? 2019-04-04 16:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

“Jeff Dean稱贊,TensorFlow官方推特支持,BERT目前工業(yè)界最耗時(shí)的應(yīng)用,計(jì)算量遠(yuǎn)高于ImageNet。我們將BERT的訓(xùn)練時(shí)間從三天縮短到了一小時(shí)多?!盪C Berkeley大學(xué)在讀博士尤洋如是說道。

近日,來自Google、UC Berkeley、UCLA研究團(tuán)隊(duì)再度合作,成功燃燒1024塊TPU,將BERT預(yù)訓(xùn)練模型的訓(xùn)練時(shí)長(zhǎng)從3天縮減到了76分鐘。batch size技術(shù)是加速神經(jīng)網(wǎng)絡(luò)訓(xùn)練的關(guān)鍵,在“Reducing BERT Pre-Training Time from 3 Days to 76 Minutes”這篇論文中,作者提出了LAMB優(yōu)化器,它支持自適應(yīng)元素更新和分層校正。

論文傳送門:https://arxiv.org/pdf/1904.00962.pdf

論文摘要:batch size增加到很大時(shí)的模型訓(xùn)練是加速大型分布式系統(tǒng)中深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練的關(guān)鍵。但是,這種模型訓(xùn)練很難,因?yàn)樗鼤?huì)導(dǎo)致一種泛化差距。直接優(yōu)化通常會(huì)導(dǎo)致測(cè)試集上的準(zhǔn)確性下降。

BERT是一種先進(jìn)的深度學(xué)習(xí)模型,它建立在語義理解的深度雙向轉(zhuǎn)換器上。當(dāng)我們?cè)黾觔atch size的大?。ㄈ绯^8192)時(shí),此前的模型訓(xùn)練技巧在BERT上表現(xiàn)得并不好。BERT預(yù)訓(xùn)練也需要很長(zhǎng)時(shí)間才能完成,如在16個(gè)TPUv3上大約需要三天。

為了解決這個(gè)問題,我們提出了LAMB優(yōu)化器,可將batch size擴(kuò)展到65536,且不會(huì)降低準(zhǔn)確率。LAMB是一個(gè)通用優(yōu)化器,batch size大小均使用,且除了學(xué)習(xí)率之外不需要?jiǎng)e的參數(shù)調(diào)整。

基線BERT-Large模型需要100萬次迭代才能完成預(yù)訓(xùn)練,而batch size大小為65536/32768的LAMB僅需要8599次迭代。我們還將batch size進(jìn)行內(nèi)存限制,接近TPUv3 pod,結(jié)果可在76分鐘內(nèi)完成BERT訓(xùn)練。

據(jù)悉,該論文的一作是來自UC Berkeley計(jì)算機(jī)科學(xué)部的在讀博士尤洋,同時(shí)也是Google Brain的實(shí)習(xí)生。據(jù)公開信息顯示,尤洋的導(dǎo)師是美國(guó)科學(xué)院與工程院院士,ACM/IEEE fellow,伯克利計(jì)算機(jī)系主任,以及首批中關(guān)村海外顧問James Demmel教授。他當(dāng)前的研究重點(diǎn)是大規(guī)模深度學(xué)習(xí)訓(xùn)練算法的分布式優(yōu)化。2017年9月,尤洋等人的新算法以24分鐘完成ImageNet訓(xùn)練,刷新世界紀(jì)錄。

在此之前,他曾在英特爾實(shí)驗(yàn)室、微軟研究院、英偉達(dá)、IBM沃森研究中心等機(jī)構(gòu)實(shí)習(xí)。尤洋本科就讀于中國(guó)農(nóng)業(yè)大學(xué)計(jì)算機(jī)系,碩士保送清華大學(xué)計(jì)算機(jī)系,是一名杠杠的理工學(xué)霸!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4840

    瀏覽量

    108147
  • TPU
    TPU
    +關(guān)注

    關(guān)注

    0

    文章

    171

    瀏覽量

    21715
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5604

    瀏覽量

    124610
  • 訓(xùn)練模型
    +關(guān)注

    關(guān)注

    1

    文章

    37

    瀏覽量

    4082

原文標(biāo)題:1024塊TPU在燃燒!BERT訓(xùn)練從3天縮短到76分鐘 | 技術(shù)頭條

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Edge Impulse 喚醒詞模型訓(xùn)練 | 技術(shù)集結(jié)

    今天,手把手帶領(lǐng)學(xué)習(xí)如何訓(xùn)練一個(gè)語音關(guān)鍵詞模型部署到嵌入式硬件上,采用Edgi-Talk平臺(tái)適配EdgeImpulse,當(dāng)然原理在其他的ARM嵌入式平臺(tái)也是通用的。讓我們看看如何讓
    的頭像 發(fā)表于 04-20 10:05 ?226次閱讀
    Edge Impulse 喚醒詞<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b> | 技術(shù)集結(jié)

    AI模型訓(xùn)練與部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    流程與部署實(shí)戰(zhàn)”免費(fèi)培訓(xùn)!以人形檢測(cè)模型部署與優(yōu)化實(shí)戰(zhàn)為基礎(chǔ),聚焦嵌入式AI落地的核心環(huán)節(jié),提供硬件,動(dòng)手實(shí)操,帶你半天時(shí)間內(nèi),走通模型訓(xùn)練
    的頭像 發(fā)表于 04-07 13:08 ?617次閱讀
    AI<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>與部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    如何訓(xùn)練自己的AI模型——RT-Thread×富瀚微FH8626V300L模型訓(xùn)練部署教程 | 技術(shù)集結(jié)

    面對(duì)消費(fèi)電子中紛繁的智能檢測(cè)需求,如何讓算法持續(xù)進(jìn)化?富瀚微最新發(fā)布的FH86X6V300芯片AI訓(xùn)練教程,以FH8626V300L為硬件核心,手把手帶您走通模型訓(xùn)練到端側(cè)部署的完整
    的頭像 發(fā)表于 02-09 11:51 ?596次閱讀
    如何<b class='flag-5'>訓(xùn)練</b>自己的AI<b class='flag-5'>模型</b>——RT-Thread×富瀚微FH8626V300L<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>部署教程 | 技術(shù)集結(jié)

    訓(xùn)練到推理:大模型算力需求的新拐點(diǎn)已至

    模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點(diǎn)主要集中模型訓(xùn)練所需的算力投入。一個(gè)萬億參數(shù)大模型
    的頭像 發(fā)表于 02-05 16:07 ?1008次閱讀
    <b class='flag-5'>從</b><b class='flag-5'>訓(xùn)練</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐點(diǎn)已至

    AI硬件全景解析:CPU、GPU、NPU、TPU的差異化之路,一文看懂!?

    CPU作為“通用基石”,支撐所有設(shè)備的基礎(chǔ)運(yùn)行;GPU憑借并行算力,成為AI訓(xùn)練與圖形處理的“主力”;TPUGoogle生態(tài)中深耕云端大模型訓(xùn)練
    的頭像 發(fā)表于 12-17 17:13 ?2196次閱讀
    AI硬件全景解析:CPU、GPU、NPU、<b class='flag-5'>TPU</b>的差異化之路,一文看懂!?

    RA8P1部署ai模型指南:訓(xùn)練模型到部署?|?本周六

    嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑板子上”,決定了項(xiàng)目能否落地。我們帶你基于RA8P1平臺(tái),跑通數(shù)據(jù)準(zhǔn)備、
    的頭像 發(fā)表于 11-20 18:06 ?2356次閱讀
    RA8P1部署ai<b class='flag-5'>模型</b>指南:<b class='flag-5'>從</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>到部署?|?本周六

    Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是
    發(fā)表于 10-22 07:03

    借助NVIDIA Megatron-Core大模型訓(xùn)練框架提高顯存使用效率

    隨著模型規(guī)模邁入百億、千億甚至萬億參數(shù)級(jí)別,如何在有限顯存中“塞下”訓(xùn)練任務(wù),對(duì)研發(fā)和運(yùn)維團(tuán)隊(duì)都是巨大挑戰(zhàn)。NVIDIA Megatron-Core 作為流行的大模型訓(xùn)練框架,提供了靈
    的頭像 發(fā)表于 10-21 10:55 ?1374次閱讀
    借助NVIDIA Megatron-Core大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>框架提高顯存使用效率

    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來,機(jī)器人操作領(lǐng)域的VLA模型普遍基于跨本體機(jī)器人數(shù)據(jù)集預(yù)訓(xùn)練,這類方法存在兩大局限:不同機(jī)器人本體和動(dòng)作空間的差異導(dǎo)致統(tǒng)一訓(xùn)練困難;現(xiàn)有大規(guī)模機(jī)器人演示數(shù)據(jù)稀缺且質(zhì)量參差不齊。得
    的頭像 發(fā)表于 08-21 09:56 ?1208次閱讀
    基于大規(guī)模人類操作數(shù)據(jù)<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的VLA<b class='flag-5'>模型</b>H-RDT

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    【Sipeed MaixCAM Pro開發(fā)板試用體驗(yàn)】 + 04 + 機(jī)器學(xué)習(xí)YOLO體驗(yàn)

    的查找數(shù)字的模型 前提條件是我擁有9個(gè)分別是漢字1-9的物牌,從中任意拿走一個(gè),通過對(duì)剩余物牌的識(shí)別,可以快速的得到被拿走的物牌并進(jìn)行屏幕顯示。 相關(guān)演示見頂部和底部視頻
    發(fā)表于 07-24 21:35

    make sence成的XML文件能上傳到自助訓(xùn)練模型上嗎?

    make sence成的XML文件能上傳到自助訓(xùn)練模型上嗎
    發(fā)表于 06-23 07:38

    訓(xùn)練模型后用cls_video.pycanmvIDE上運(yùn)行,按著步驟操作但是攝像頭沒有識(shí)別到是什么情況?

    訓(xùn)練模型后用cls_video.pycanmvIDE上運(yùn)行,按著步驟操作但是攝像頭沒有識(shí)別到是什么情況啊,沒有框出現(xiàn)
    發(fā)表于 06-10 06:57

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,模型轉(zhuǎn)化為嵌入式AI模型模型升級(jí)AI攝像機(jī),進(jìn)行AI識(shí)別應(yīng)用。 AI訓(xùn)練
    發(fā)表于 04-28 11:11

    AI原生架構(gòu)升級(jí):RAKsmart服務(wù)器超大規(guī)模模型訓(xùn)練中的算力突破

    近年來,隨著千億級(jí)參數(shù)模型的崛起,AI訓(xùn)練對(duì)算力的需求呈現(xiàn)指數(shù)級(jí)增長(zhǎng)。傳統(tǒng)服務(wù)器架構(gòu)應(yīng)對(duì)分布式訓(xùn)練、高并發(fā)計(jì)算和顯存優(yōu)化等場(chǎng)景時(shí)逐漸顯露瓶頸。而RAKsmart為超大規(guī)模
    的頭像 發(fā)表于 04-24 09:27 ?896次閱讀