chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟開源“傻瓜式”類ChatGPT模型訓(xùn)練工具

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-04-14 09:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在利用 OpenAI 的 GPT-4 為 Bing Chat、 Bing Image Creator、Microsoft 365 Copilot、Azure OpenAI Service 和 GitHub Copilot X 引入了類似 ChatGPT 的功能后。微軟現(xiàn)又宣布推出 DeepSpeed-Chat,一種用于 RLHF 訓(xùn)練的低成本開源解決方案,基于微軟開源的深度學(xué)習(xí)優(yōu)化庫 DeepSpeed;聲稱即使是使用單個 GPU,任何人也都可以創(chuàng)建高質(zhì)量的 ChatGPT 式模型。

該公司表示,盡管開源社區(qū)付出了巨大的努力,但目前仍缺乏一個支持端到端的基于人工反饋機(jī)制的強(qiáng)化學(xué)習(xí)(RLHF)的規(guī)?;到y(tǒng),這使得訓(xùn)練強(qiáng)大的類 ChatGPT 模型十分困難。ChatGPT 模型的訓(xùn)練是基于 InstructGPT 論文中的 RLHF 方式,與常見的大語言模型的預(yù)訓(xùn)練和微調(diào)截然不同,使得現(xiàn)有深度學(xué)習(xí)系統(tǒng)在訓(xùn)練類 ChatGPT 模型時存在種種局限。因此,為了讓 ChatGPT 類型的模型更容易被普通數(shù)據(jù)科學(xué)家和研究者使用,并使 RLHF 訓(xùn)練真正普及到 AI 社區(qū),他們發(fā)布了 DeepSpeed-Chat。

8e39ca58-d9e7-11ed-bfe3-dac502259ad0.png

DeepSpeed-Chat 具有以下三大核心功能:

簡化 ChatGPT 類型模型的訓(xùn)練和強(qiáng)化推理體驗(yàn):只需一個腳本即可實(shí)現(xiàn)多個訓(xùn)練步驟,包括使用 Huggingface 預(yù)訓(xùn)練的模型、使用 DeepSpeed-RLHF 系統(tǒng)運(yùn)行 InstructGPT 訓(xùn)練的所有三個步驟、甚至生成你自己的類 ChatGPT 模型。此外,還提供了一個易于使用的推理 API,用于用戶在模型訓(xùn)練后測試對話式交互。

DeepSpeed-RLHF 模塊:DeepSpeed-RLHF 復(fù)刻了 InstructGPT 論文中的訓(xùn)練模式,并確保包括 a) 監(jiān)督微調(diào)(SFT),b) 獎勵模型微調(diào)和 c) 基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)在內(nèi)的三個步驟與其一一對應(yīng)。此外,還提供了數(shù)據(jù)抽象和混合功能,以支持用戶使用多個不同來源的數(shù)據(jù)源進(jìn)行訓(xùn)練。

DeepSpeed-RLHF 系統(tǒng):其將 DeepSpeed 的訓(xùn)練(training engine)和推理能力(inference engine) 整合到一個統(tǒng)一的混合引擎(DeepSpeed Hybrid Engine or DeepSpeed-HE)中用于 RLHF 訓(xùn)練。DeepSpeed-HE 能夠在 RLHF 中無縫地在推理和訓(xùn)練模式之間切換,使其能夠利用來自 DeepSpeed-Inference 的各種優(yōu)化,如張量并行計算和高性能 CUDA 算子進(jìn)行語言生成,同時對訓(xùn)練部分還能從 ZeRO- 和 LoRA-based 內(nèi)存優(yōu)化策略中受益。DeepSpeed-HE 還能夠自動在 RLHF 的不同階段進(jìn)行智能的內(nèi)存管理和數(shù)據(jù)緩存。

文檔內(nèi)容指出,DeepSpeed Chat 與其他先進(jìn)方案相比的優(yōu)勢在于:效率和經(jīng)濟(jì)性方面比現(xiàn)有系統(tǒng)快 15 倍以上,在 Azure 云上只需 9 小時即可訓(xùn)練一個 OPT-13B 模型,只需 18 小時既可訓(xùn)練 OPT-30B 模型,分別花費(fèi)不到 300 美元和 600 美元。

在速度和可擴(kuò)展性方面,即使是 13B 的模型也可以在 1.25 小時內(nèi)訓(xùn)練,龐大的 175B 模型可以在不到一天的時間內(nèi)使用 64 個 GPU 集群進(jìn)行訓(xùn)練。在 RLHF 的可訪問性和普及化方面,則可以在單個 GPU 上訓(xùn)練超過 130 億參數(shù)的模型。此外還支持在相同的硬件上分別運(yùn)行 6.5B 和 50B 的模型,實(shí)現(xiàn)高達(dá) 7.5 倍的提升。

8e44b440-d9e7-11ed-bfe3-dac502259ad0.png

8e6634f8-d9e7-11ed-bfe3-dac502259ad0.png

8e7a9b3c-d9e7-11ed-bfe3-dac502259ad0.png

盡管近期關(guān)于對 ChatGPT 類大語言模型發(fā)展的反對和擔(dān)憂之聲不斷,但微軟似乎仍在全力推進(jìn)其 AI 開發(fā)。對于微軟的此次發(fā)布,前 Meta AI 專家 Elvis 也激動地表示,DeepSpeed Chat 提供了 Alpaca 和 Vicuna 等所缺少的、一個端到端的 RLHF 管道來訓(xùn)練類似 ChatGPT 的模型,解決的是成本和效率方面的挑戰(zhàn)。這是 “微軟令人印象深刻的開源努力。..。.. 是一件大事”。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6739

    瀏覽量

    107791
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5597

    瀏覽量

    124345
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1598

    瀏覽量

    10232

原文標(biāo)題:微軟開源“傻瓜式”類ChatGPT模型訓(xùn)練工具,提速省錢15倍

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    摩爾線程發(fā)布SimuMax v1.1:從仿真工具升級為全棧工作流平臺,助力大模型訓(xùn)練提效

    ? ? 近日,摩爾線程正式發(fā)布開源模型分布訓(xùn)練仿真工具SimuMax的1.1版本。該版本在完整繼承v1.0高精度仿真能力的基礎(chǔ)上,實(shí)現(xiàn)了
    的頭像 發(fā)表于 01-09 09:17 ?221次閱讀
    摩爾線程發(fā)布SimuMax v1.1:從仿真<b class='flag-5'>工具</b>升級為全棧工作流平臺,助力大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>提效

    openDACS 2025 開源EDA與芯片賽項(xiàng) 賽題七:基于大模型的生成原理圖設(shè)計

    1. 大賽背景 開放原子大賽是由開放原子開源基金會組織舉辦的面向開源領(lǐng)域的技術(shù)賽事,目前大賽已成功舉辦兩屆共發(fā)布100個賽項(xiàng),吸引8多萬人報名參賽,覆蓋1000多所院校,發(fā)放獎金超過2700萬元
    發(fā)表于 11-13 11:49

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個手寫數(shù)字識
    發(fā)表于 10-22 07:03

    NVIDIA開源Audio2Face模型及SDK

    NVIDIA 現(xiàn)已開源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應(yīng)用開發(fā)者都可以構(gòu)建并部署帶有先進(jìn)動畫的高精度角色。NVIDIA 開源 Audio2Face 的訓(xùn)練
    的頭像 發(fā)表于 10-21 11:11 ?801次閱讀
    NVIDIA<b class='flag-5'>開源</b>Audio2Face<b class='flag-5'>模型</b>及SDK

    摩爾線程發(fā)布大模型訓(xùn)練仿真工具SimuMax v1.0

    近日,摩爾線程正式發(fā)布并開源模型分布訓(xùn)練仿真工具SimuMax 1.0版本。該版本在顯存和性能仿真精度上實(shí)現(xiàn)突破性提升,同時引入多項(xiàng)關(guān)鍵
    的頭像 發(fā)表于 09-11 18:19 ?3674次閱讀
    摩爾線程發(fā)布大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>仿真<b class='flag-5'>工具</b>SimuMax v1.0

    新一代超大模型訓(xùn)練引擎XTuner V1開源

    9月8日,上海人工智能實(shí)驗(yàn)室(上海AI實(shí)驗(yàn)室)開源書生大模型新一代訓(xùn)練引擎XTuner V1。
    的頭像 發(fā)表于 09-10 10:55 ?1122次閱讀

    傻瓜式操作!燈具外殼氣密性檢測儀上手就會

    在燈具生產(chǎn)過程中,確保外殼的氣密性至關(guān)重要。而如今,有了先進(jìn)的燈具外殼氣密性檢測儀,檢測工作變得輕松便捷,真正實(shí)現(xiàn)了“傻瓜式操作”,讓你上手就會。首先,在開始檢測前,只需將燈具外殼放置在檢測儀的特定
    的頭像 發(fā)表于 05-05 14:56 ?688次閱讀
    <b class='flag-5'>傻瓜式</b>操作!燈具外殼氣密性檢測儀上手就會

    如何高效訓(xùn)練AI模型?這些常用工具你必須知道!

    模型的發(fā)展同樣面臨瓶頸,訓(xùn)練所需的硬件資源日益增加,比如英偉達(dá)的芯片、電力等(這也可能是ChatGPT5遲遲沒有出來的原因)。業(yè)界有觀點(diǎn)認(rèn)為,在大多數(shù)情況下,并不需要全能的大模型,而
    的頭像 發(fā)表于 04-17 16:43 ?2239次閱讀
    如何高效<b class='flag-5'>訓(xùn)練</b>AI<b class='flag-5'>模型</b>?這些常用<b class='flag-5'>工具</b>你必須知道!

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    基石。 Neuron Studio打造全流程一站開發(fā)體驗(yàn),為AI應(yīng)用開發(fā)按下加速鍵 AI 應(yīng)用的開發(fā)瓶頸,從來都不是“點(diǎn)的問題”,而是“鏈的問題”:開發(fā)工具碎片化,調(diào)優(yōu)過程靠手動,單模型分析效率低
    發(fā)表于 04-13 19:52

    支持48位尋址!華為開源文件系統(tǒng)EROFS跨入大模型訓(xùn)練

    電子發(fā)燒友網(wǎng)綜合報道 AI大模型帶來算力硬件需求升級,算力芯片、HBM內(nèi)存等迎來需求暴增。而在軟件端,由于AI大模型的海量數(shù)據(jù)、高算力需求、分布訓(xùn)練等特點(diǎn),對文件系統(tǒng)也提出了與傳統(tǒng)應(yīng)
    發(fā)表于 03-27 01:22 ?1095次閱讀

    恩智浦eIQ Time Series Studio工具使用教程之模型訓(xùn)練

    大家好,eIQ Time SeriesStudio又和大家見面啦!本章為大家?guī)?b class='flag-5'>工具核心部分-模型訓(xùn)練。
    的頭像 發(fā)表于 03-25 15:25 ?1685次閱讀
    恩智浦eIQ Time Series Studio<b class='flag-5'>工具</b>使用教程之<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    ,使用PaddleNLP將FineWeb數(shù)據(jù)集中文本形式的數(shù)據(jù),經(jīng)過分詞化(Tokenize),轉(zhuǎn)換為大語言模型能直接使用的二進(jìn)制數(shù)據(jù),以便提升訓(xùn)練效果。 ChatGPT發(fā)布后,當(dāng)代大語言模型
    的頭像 發(fā)表于 03-21 18:24 ?4250次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制預(yù)<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    YOLOv5中rgb888p_size這個參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎?一致會達(dá)到更好的效果?

    YOLOv5中rgb888p_size這個參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎,一致會達(dá)到更好的效果
    發(fā)表于 03-11 08:12

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    構(gòu)建開源OpenVINO?工具套件后,模型優(yōu)化器位于何處呢?

    構(gòu)建開源OpenVINO?工具套件后,模型優(yōu)化器位于何處?
    發(fā)表于 03-06 08:18