chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TensorFlow模型優(yōu)化:模型量化

Tensorflowers ? 來源:TensorFlow ? 作者:TensorFlow ? 2021-02-04 15:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. 模型量化需求

為了滿足各種 AI 應(yīng)用對檢測精度的要求,深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的寬度、層數(shù)、深度以及各類參數(shù)等數(shù)量急速上升,導(dǎo)致深度學(xué)習(xí)模型占用了更大的存儲(chǔ)空間,需要更長的推理時(shí)延,不利于工業(yè)化部署;目前的模型都運(yùn)行在 CPUGPU,FPGA,ASIC 等四類芯片上,芯片的算力有限;對于邊緣設(shè)備上的芯片而言,在存儲(chǔ)、內(nèi)存、功耗及時(shí)延性方面有許多限制,推理效率尤其重要。

作為通用的深度學(xué)習(xí)優(yōu)化的手段之一,模型量化將深度學(xué)習(xí)模型量化為更小的定點(diǎn)模型和更快的推理速度,而且?guī)缀醪粫?huì)有精度損失,其適用于絕大多數(shù)模型和使用場景。此外,模型量化解鎖了定點(diǎn)硬件(Fixed-point hardware) 和下一代硬件加速器的處理能力,能夠?qū)崿F(xiàn)相同時(shí)延的網(wǎng)絡(luò)模型推理功能,硬件價(jià)格只有原來的幾十分之一,尤其是 FPGA,用硬件電路去實(shí)現(xiàn)網(wǎng)絡(luò)推理功能,時(shí)延是各類芯片中最低的。

TensorFlow 模型優(yōu)化工具包是一套能夠優(yōu)化機(jī)器學(xué)習(xí)模型以便于部署和執(zhí)行的工具。該工具包用途很多,其中包括支持用于以下方面的技術(shù):

通過模型量化等方式降低云和邊緣設(shè)備(例如移動(dòng)設(shè)備和 IoT 設(shè)備)的延遲時(shí)間和推斷成本。將優(yōu)化后的模型部署到邊緣設(shè)備,這些設(shè)備在處理、內(nèi)存、耗電量、網(wǎng)絡(luò)連接和模型存儲(chǔ)空間方面存在限制。在現(xiàn)有硬件或新的專用加速器上執(zhí)行模型并進(jìn)行優(yōu)化。

根據(jù)您的任務(wù)選擇模型和優(yōu)化工具:

利用現(xiàn)成模型提高性能在很多情況下,預(yù)先優(yōu)化的模型可以提高應(yīng)用的效率。

2. 模型量化過程

大家都知道模型是有權(quán)重 (w) 和偏置 (b) 組成,其中 w,b 都是以 float32 存儲(chǔ)的,float32 在計(jì)算機(jī)中存儲(chǔ)時(shí)占 32bit,int8 在計(jì)算機(jī)中存儲(chǔ)時(shí)占 8bit;模型量化就是用 int8 等更少位數(shù)的數(shù)據(jù)類型來代替 float32 表示模型的權(quán)重 (w) 和偏置 (b) 的過程,從而達(dá)到減少模型尺寸大小、減少模型內(nèi)存消耗及加快模型推理速度等目標(biāo)。

模型量化以損失推理精度為代價(jià),將網(wǎng)絡(luò)中連續(xù)取值或離散取值的浮點(diǎn)型參數(shù)(權(quán)重 w 和輸入 x)線性映射為定點(diǎn)近似 (int8/uint8) 的離散值,取代原有的 float32 格式數(shù)據(jù),同時(shí)保持輸入輸出為浮點(diǎn)型,從而達(dá)到減少模型尺寸大小、減少模型內(nèi)存消耗及加快模型推理速度等目標(biāo)。定點(diǎn)量化近似表示卷積和反卷積如下圖 所示,左邊是原始權(quán)重 float32 分布,右邊是原始權(quán)重 float32 經(jīng)過量化后又反量化后權(quán)重分布。

32703f02-5408-11eb-8b86-12bb97331649.jpg

32a0429c-5408-11eb-8b86-12bb97331649.jpg

圖 2.1 Int8 量化近似表示卷積

33082e66-5408-11eb-8b86-12bb97331649.jpg

3341b7da-5408-11eb-8b86-12bb97331649.jpg

圖 2.2 Int8 量化近似表示反卷積

3. 模型量化好處

減小模型尺寸,如 8 位整型量化可減少 75% 的模型大小;

減少存儲(chǔ)空間,在邊緣側(cè)存儲(chǔ)空間不足時(shí)更具有意義;

減少內(nèi)存耗用,更小的模型大小意味著不需要更多的內(nèi)存;

加快推理速度,訪問一次 32 位浮點(diǎn)型可以訪問四次 int8 整型,整型運(yùn)算比浮點(diǎn)型運(yùn)算更快;CPU 用 int8 計(jì)算的速度更快

減少設(shè)備功耗,內(nèi)存耗用少了推理速度快了自然減少了設(shè)備功耗;

支持微處理器,有些微處理器屬于 8 位的,低功耗運(yùn)行浮點(diǎn)運(yùn)算速度慢,需要進(jìn)行 8bit 量化。

某些硬件加速器如 DSP/NPU 只支持 int8

4. 模型量化原理

模型前向推理過程中所有的計(jì)算都可以簡化為 x= w*x +b; x 是輸入,也叫作 FeatureMap,w 是權(quán)重,b 是偏置;實(shí)際過程中 b 對模型的推理結(jié)果影響不大,一般丟棄。原本 w,x 是 float32,現(xiàn)在使用 int8 來表示為 qw,qx;模型量化的原理就是定點(diǎn) (qw qx) 與浮點(diǎn) (w,x),建立了一種有效的數(shù)據(jù)映射關(guān)系.。不僅僅量化權(quán)重 W ,輸入 X 也要量化;詳解如下:

R 表示真實(shí)的浮點(diǎn)值(w 或者 x),

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3810

    瀏覽量

    52251
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8560

    瀏覽量

    137198
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5603

    瀏覽量

    124605

原文標(biāo)題:社區(qū)分享 | TensorFlow 模型優(yōu)化:模型量化

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    量化模型在 iMX93 NPU 上運(yùn)行,但輸出不正確怎么解決

    我正在使用 MobileNet 的自定義實(shí)現(xiàn),旨在對 spark 進(jìn)行二進(jìn)制分類。轉(zhuǎn)換為 tflite 并將其量化為 int8 后,模型按預(yù)期在 NPU 上運(yùn)行,但輸出沒有意義。該模型量化
    發(fā)表于 03-18 07:53

    在 NPU 上運(yùn)行了 eIQ TensorFlow Lite 示例模型報(bào)錯(cuò)

    1.16.0。我們使用 eIQ Toolkit 將 TensorFlow Lite 模型 .tflite 轉(zhuǎn)換為 NPU 優(yōu)化模型,但在執(zhí)行過程中,發(fā)生以下錯(cuò)誤: 為了排除故障,
    發(fā)表于 03-18 06:52

    AWQ/GPTQ量化模型加載與顯存優(yōu)化實(shí)戰(zhàn)

    大語言模型(LLM)推理顯存需求呈指數(shù)級增長,70B參數(shù)的模型需要約140GB顯存(FP16),遠(yuǎn)超單卡GPU容量。量化技術(shù)通過降低模型參數(shù)精度(從FP16到INT4),在精度損失最小
    的頭像 發(fā)表于 03-13 09:45 ?535次閱讀

    微電網(wǎng)經(jīng)濟(jì)調(diào)度理論:成本最小化與效益最大化的優(yōu)化模型

    與效益最大化的具體量化指標(biāo);約束條件是模型的運(yùn)行底線,確保調(diào)度方案的可行性與安全性;優(yōu)化變量是模型的調(diào)控對象,決定了調(diào)度方案的實(shí)施路徑。
    的頭像 發(fā)表于 03-12 11:05 ?198次閱讀
    微電網(wǎng)經(jīng)濟(jì)調(diào)度理論:成本最小化與效益最大化的<b class='flag-5'>優(yōu)化</b><b class='flag-5'>模型</b>

    安寶特產(chǎn)品丨3DE-實(shí)體模型簡化-快捷簡化和表面收縮

    CAD 實(shí)體模型如何輕量化?快捷簡化與表面收縮助力版權(quán)保護(hù)和營銷素材制作成本優(yōu)化
    的頭像 發(fā)表于 12-01 13:28 ?369次閱讀
    安寶特產(chǎn)品丨3DE-實(shí)體<b class='flag-5'>模型</b>簡化-快捷簡化和表面收縮

    如何利用NPU與模型壓縮技術(shù)優(yōu)化邊緣AI

    ,AI 模型體積龐大,部署在 NPU上常常面臨困難,這凸顯了模型壓縮技術(shù)的重要性。要實(shí)現(xiàn)高效的實(shí)時(shí)邊緣 AI,需要深入探討NPU 與模型壓縮技術(shù)(如量化與投影)如何協(xié)同工作。
    的頭像 發(fā)表于 11-07 15:26 ?1387次閱讀
    如何利用NPU與<b class='flag-5'>模型</b>壓縮技術(shù)<b class='flag-5'>優(yōu)化</b>邊緣AI

    如何精準(zhǔn)驅(qū)動(dòng)菜品識(shí)別模型--基于米爾瑞芯微RK3576邊緣計(jì)算盒

    程 該工具鏈為AI模型在邊緣端的部署提供了全流程支持: 1. 模型轉(zhuǎn)換 支持多框架輸入: 可直接加載PyTorch(.pt)、TensorFlow(.pb)、ONNX(.onnx)等格式的模型
    發(fā)表于 10-31 21:19

    西格電力儲(chǔ)能容量配置優(yōu)化模型與工具方法

    科學(xué)的儲(chǔ)能容量配置,核心是 “以項(xiàng)目目標(biāo)為導(dǎo)向,結(jié)合電源特性、負(fù)荷需求、經(jīng)濟(jì)約束,通過模型量化計(jì)算 + 工具驗(yàn)證,找到‘技術(shù)達(dá)標(biāo)、成本最優(yōu)’的最小合理容量”。本文拆解容量配置的核心影響因素、主流優(yōu)化
    的頭像 發(fā)表于 10-24 10:04 ?775次閱讀
    西格電力儲(chǔ)能容量配置<b class='flag-5'>優(yōu)化</b><b class='flag-5'>模型</b>與工具方法

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫數(shù)字識(shí)別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    如何進(jìn)行YOLO模型轉(zhuǎn)換?

    我目前使用的轉(zhuǎn)模型代碼如下 from ultralytics import YOLOimport cv2import timeimport nncaseimport# 加載預(yù)訓(xùn)練的YOLO模型
    發(fā)表于 08-14 06:03

    無法在NPU上推理OpenVINO?優(yōu)化的 TinyLlama 模型怎么解決?

    在 NPU 上推斷 OpenVINO?優(yōu)化的 TinyLlama 模型。 遇到的錯(cuò)誤: get_shape was called on a descriptor::Tensor with dynamic shape
    發(fā)表于 07-11 06:58

    無法將Tensorflow Lite模型轉(zhuǎn)換為OpenVINO?格式怎么處理?

    Tensorflow Lite 模型轉(zhuǎn)換為 OpenVINO? 格式。 遇到的錯(cuò)誤: FrontEnd API failed with OpConversionFailure:No translator found for TFLite_Detection_PostP
    發(fā)表于 06-25 08:27

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    瑞芯微模型量化文件構(gòu)建

    模型是一張圖片輸入時(shí),量化文件如上圖所示。但是我現(xiàn)在想量化deepprivacy人臉匿名模型,他的輸入是四個(gè)輸入。該模型訓(xùn)練時(shí)數(shù)據(jù)集只標(biāo)注
    發(fā)表于 06-13 09:07

    您的模型診斷專家MI:助力把好模型質(zhì)量關(guān)

    Model Inspector是一款專門針對汽車、航空、軌交等行業(yè)的靜態(tài)模型檢查工具,可以對模型進(jìn)行自動(dòng)化、批量化建模規(guī)范和復(fù)雜度量的檢查,提升用戶模型質(zhì)量。
    的頭像 發(fā)表于 06-11 16:57 ?1081次閱讀
    您的<b class='flag-5'>模型</b>診斷專家MI:助力把好<b class='flag-5'>模型</b>質(zhì)量關(guān)