chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

紐約大學(xué)與 NVIDIA 攜手開發(fā)能夠預(yù)測患者再入院概率的大型語言模型

NVIDIA英偉達 ? 來源:未知 ? 2023-06-14 18:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

刊登在《自然》(Nature)上的 AI 模型 NYUTron 已被部署到紐約大學(xué)朗格尼健康中心

從醫(yī)院出院對病人來說是一座重要的里程碑,但有時這并不代表著他們已完全康復(fù)。在美國,有近 15% 的住院病人在首次出院后 30 天內(nèi)再次入院,并且往往伴隨著病情惡化與對患者及院方來說都更高的住院費用。

紐約大學(xué)學(xué)術(shù)醫(yī)療中心——紐約大學(xué)朗格尼健康中心(NYU Langone Health)的研究人員與 NVIDIA 專家攜手開發(fā)了一個可預(yù)測病人 30 天內(nèi)再入院風(fēng)險以及其他臨床結(jié)果的大型語言模型(LLM)。

這個刊登在科學(xué)期刊《自然》(Nature)上的 NYUTron 模型被部署在該醫(yī)療系統(tǒng)的六座住院樓中。它能夠為醫(yī)生提供 AI 所驅(qū)動的洞察,幫助他們識別需要通過臨床干預(yù)的病人,以減少患者再入院概率。

紐約大學(xué)格羅斯曼醫(yī)學(xué)院放射學(xué)和神經(jīng)外科助理教授、NYUTron 的主要合作者 Eric Oermann 博士表示:“當(dāng)你讓病人出院時,肯定不希望他們需要再回來,或者其實在當(dāng)時就應(yīng)該延長病人的住院時間。借助 AI 模型的分析,我們很快就能幫助臨床醫(yī)生預(yù)防或解決那些使病人面臨更高再入院風(fēng)險的情況?!?/p>

到目前為止,該模型已被應(yīng)用于紐約大學(xué)醫(yī)療系統(tǒng)中的 5 萬多名出院患者。它會通過電子郵件告知醫(yī)生再入院風(fēng)險的預(yù)測。Oermann 的團隊接下來正計劃通過一項臨床試驗,測試依據(jù) NYUTron 的分析所采取的干預(yù)措施是否能夠降低再入院率。

應(yīng)對短期再入院等風(fēng)險

美國政府追蹤 30 日再入院率并以此作為醫(yī)院的護理質(zhì)量指標。再入院率高的醫(yī)療機構(gòu)會被處以罰款,這項制度能夠激勵醫(yī)院改進其出院流程。

新出院的病人可能會因為感染、過度使用抗生素、過早移除手術(shù)引流管等原因而需要再入院。如果這些風(fēng)險因素能夠被更早地發(fā)現(xiàn),醫(yī)生就可以通過調(diào)整治療計劃或延長病人留院觀察時間來進行干預(yù)。

Oermann 表示:“雖然自 20 世紀 80 年代以來就有了預(yù)測病人再入院的計算模型,但我們把它看作一項需要衛(wèi)生系統(tǒng)規(guī)模臨床文本語料庫的自然語言處理任務(wù)。我們使用電子健康記錄的非結(jié)構(gòu)化數(shù)據(jù)訓(xùn)練我們的 LLM,檢查它是否能夠捕捉到人們之前沒有考慮過的洞察?!?/p>

NYUTron 使用紐約大學(xué)朗格尼健康中心的 10 年健康記錄進行了預(yù)訓(xùn)練。這些記錄由近 40 萬名病人超過 40 億字的臨床筆記組成。相比最先進的機器學(xué)習(xí)模型,該模型預(yù)測再入院的準確率提高了 10% 以上。

一旦該 LLM 為 30 天再入院的初始用例進行了訓(xùn)練,該團隊就能在一周左右的時間里推出了其他四種預(yù)測算法,包括預(yù)測病人的住院時間、院內(nèi)死亡的可能性以及病人保險理賠被拒的幾率。

Oermann 表示:“經(jīng)營一家醫(yī)院在某些方面就像管理一家酒店。能夠幫助醫(yī)院更高效運營的洞察意味著醫(yī)院能夠騰出更多床位并為更多病人提供更高質(zhì)量的照護?!?/p>

從訓(xùn)練到部署一個 LLM

NYUTron 是一個擁有數(shù)億參數(shù)的 LLM。它在一個由NVIDIA A100 Tensor Core GPU 組成的大型集群上使用 NVIDIA NeMo Megatron 框架訓(xùn)練而成。

Oermann 表示:“如今,大部分關(guān)于語言模型的討論都圍繞著具有數(shù)十億參數(shù)的超大型通用模型,這些模型使用數(shù)百乃至數(shù)千個 GPU 在混亂的數(shù)據(jù)集上訓(xùn)練而成。我們反其道而行之,使用在高度精煉的數(shù)據(jù)上訓(xùn)練的中等規(guī)模的模型來完成特定醫(yī)療任務(wù)?!?/p>

為了優(yōu)化模型以便在現(xiàn)實醫(yī)院進行推理,該團隊開發(fā)了一個修改版的NVIDIA Triton 開源軟件,以便利用NVIDIA TensorRT 軟件開發(fā)工具套件簡化 AI 模型部署。

Oermann 表示:“像這樣的模型必須要高效運行才能被部署到實時醫(yī)療環(huán)境中。Triton 提供了你在一個推理框架中想要的一切,讓我們的模型能夠飛速運行?!?/p>

Oermann 的團隊發(fā)現(xiàn),在對他們的 LLM 進行預(yù)訓(xùn)練后,只需使用特定醫(yī)院的數(shù)據(jù)在現(xiàn)場進行微調(diào)就能大幅提高準確率,這個特點可以幫助其他醫(yī)療機構(gòu)部署類似的模型。

他表示:“并不是所有醫(yī)院都擁有完全自主訓(xùn)練一個大型語言模型所需要的資源,但他們可以采用像 NYUTron 這樣的預(yù)訓(xùn)練模型,然后通過云端的 GPU 使用少量本地數(shù)據(jù)樣本對模型進行微調(diào)。這對于許多醫(yī)療機構(gòu)來說都是可以做到的。”

如要進一步了解 NYUTron,請閱讀《自然》期刊中的論文。點擊“閱讀原文”,點播觀看 NVIDIA 與紐約大學(xué)的相關(guān)講座。

掃描下方海報二維碼觀看 NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 COMPUTEX 2023 的主題演講直播回放,主題演講中文字幕版已上線,了解 AI、圖形及其他領(lǐng)域的最新進展!


原文標題:紐約大學(xué)與 NVIDIA 攜手開發(fā)能夠預(yù)測患者再入院概率的大型語言模型

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關(guān)注

    關(guān)注

    23

    文章

    4112

    瀏覽量

    99597

原文標題:紐約大學(xué)與 NVIDIA 攜手開發(fā)能夠預(yù)測患者再入院概率的大型語言模型

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    解讀大型語言模型的偏見

    在一項新的研究中,研究人員發(fā)現(xiàn)了LLM中某種偏見的根本原因,為更準確、更可靠的AI系統(tǒng)鋪平了道路。研究表明,大型語言模型(LLM)往往傾向于過分強調(diào)文檔或?qū)υ掗_頭和結(jié)尾的信息,而相對忽略中間部分
    的頭像 發(fā)表于 04-15 14:44 ?562次閱讀
    解讀<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>的偏見

    NVIDIA 擴展開放模型系列,推動代理式、物理和醫(yī)療 AI 下一階段發(fā)展

    新聞?wù)?●NVIDIA Nemotron 3 全模態(tài)理解模型 (Omni-understanding Models) 為 AI 智能體提供動力 ,使其能夠實現(xiàn)自然對話、復(fù)雜推理和高級視覺能力
    的頭像 發(fā)表于 03-17 09:18 ?487次閱讀
    <b class='flag-5'>NVIDIA</b> 擴展開放<b class='flag-5'>模型</b>系列,推動代理式、物理和醫(yī)療 AI 下一階段發(fā)展

    NVIDIA推出代理式AI藍圖與電信推理模型

    借助全新開源大型電信模型NVIDIA Blueprint,電信運營商能夠利用自有數(shù)據(jù)訓(xùn)練 AI 智能體,構(gòu)建自主網(wǎng)絡(luò)。
    的頭像 發(fā)表于 03-06 17:37 ?3045次閱讀

    NVIDIA 推出 Alpamayo 系列開源 AI 模型與工具,加速安全可靠的推理型輔助駕駛汽車開發(fā)

    新聞?wù)?: l NVIDIA 率先發(fā)布為應(yīng)對輔助駕駛長尾場景挑戰(zhàn)而設(shè)計的開源視覺-語言-動作推理模型(Reasoning VLA);NVIDIA Alpamayo 系列還包含賦能輔助
    的頭像 發(fā)表于 01-06 09:40 ?508次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Alpamayo 系列開源 AI <b class='flag-5'>模型</b>與工具,加速安全可靠的推理型輔助駕駛汽車<b class='flag-5'>開發(fā)</b>

    NVIDIA攜手Mistral AI發(fā)布全新開源大語言模型系列

    全新 Mistral 3 系列涵蓋從前沿級到緊湊型模型,針對 NVIDIA 平臺進行了優(yōu)化,助力 Mistral AI 實現(xiàn)云到邊緣分布式智能愿景。
    的頭像 發(fā)表于 12-13 09:58 ?1425次閱讀

    NVIDIA推動面向數(shù)字與物理AI的開源模型發(fā)展

    NVIDIA 發(fā)布一系列涵蓋語音、安全與輔助駕駛領(lǐng)域的全新 AI 工具,其中包括面向移動出行領(lǐng)域的行業(yè)級開源視覺-語言-動作推理模型(Reasoning VLA) NVIDIA DRI
    的頭像 發(fā)表于 12-13 09:50 ?1519次閱讀

    利用NVIDIA Cosmos開放世界基礎(chǔ)模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測試與驗證數(shù)據(jù)生成。借助 NVID
    的頭像 發(fā)表于 12-01 09:25 ?1394次閱讀

    NVIDIA推出面向語言、機器人和生物學(xué)的全新開源AI技術(shù)

    NVIDIA 秉持對開源的長期承諾,推出了面向語言、機器人和生物學(xué)的全新開源 AI 技術(shù),為構(gòu)建開源生態(tài)系統(tǒng)做出貢獻,擴展 AI 的普及并推動創(chuàng)新。NVIDIA 正將這些模型、數(shù)據(jù)和訓(xùn)
    的頭像 發(fā)表于 11-06 11:49 ?1247次閱讀

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語言模型

    為助力打造實時、動態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語言模型(SLM),可實現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1391次閱讀

    MediaTek攜手NVIDIA開啟個人AI算力新紀元

    Spark 助力開發(fā)者能在本地端對大型 AI 模型進行原型設(shè)計(Prototype)、微調(diào)(Fine-tune)和推理(Inference)。NVIDIA DGX Spark 將于
    的頭像 發(fā)表于 10-16 11:26 ?921次閱讀

    NVIDIA 利用全新開源模型與仿真庫加速機器人研發(fā)進程

    科研人員及開發(fā)者打造功能更強大、適應(yīng)性更強的機器人。 ? 全新的 NVIDIA Isaac GR00T 開源基礎(chǔ)模型將為機器人賦予接近人類的推理能力,使其能夠拆解復(fù)雜指令,并借助已有知
    的頭像 發(fā)表于 09-30 09:52 ?3198次閱讀
    <b class='flag-5'>NVIDIA</b> 利用全新開源<b class='flag-5'>模型</b>與仿真庫加速機器人研發(fā)進程

    通過NVIDIA Cosmos模型增強機器人學(xué)習(xí)

    擴展。基于 NVIDIA Cosmos 構(gòu)建的 NVIDIA Isaac GR00T-Dreams blueprint,可以通過單張圖像和語言提示生成海量的合成軌跡數(shù)據(jù),能夠有效解決這
    的頭像 發(fā)表于 07-14 11:49 ?1259次閱讀
    通過<b class='flag-5'>NVIDIA</b> Cosmos<b class='flag-5'>模型</b>增強機器人學(xué)習(xí)

    歐洲借助NVIDIA Nemotron優(yōu)化主權(quán)大語言模型

    NVIDIA攜手歐洲和中東的模型構(gòu)建商與云提供商,共同優(yōu)化主權(quán)大語言模型 (LLM),加速該地區(qū)各行業(yè)采用企業(yè)級 AI。
    的頭像 發(fā)表于 06-12 15:42 ?1370次閱讀

    ServiceNow攜手NVIDIA構(gòu)建150億參數(shù)超級助手

    Apriel Nemotron 15B 開源大語言模型 (LLM) 使用 NVIDIA NeMo、NVIDIA Llama Nemotron 開放數(shù)據(jù)集以及 ServiceNow 專業(yè)
    的頭像 發(fā)表于 05-12 15:37 ?1045次閱讀

    小白學(xué)大模型:從零實現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),
    的頭像 發(fā)表于 04-30 18:34 ?1437次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>