chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

帶你了解 TensorFlow Lite Task Library模型接口

Tensorflowers ? 來(lái)源:TensorFlow ? 作者:TensorFlow ? 2020-09-30 10:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

文 /Lu Wang、Chen Cen、Arun Venkatesan 和 Khanh LeViet

概述

在移動(dòng)設(shè)備上使用 TensorFlow Lite 模型運(yùn)行推理不僅僅是與模型交互,還需要額外的代碼來(lái)處理復(fù)雜的邏輯,如數(shù)據(jù)轉(zhuǎn)換、預(yù)處理/后處理、加載關(guān)聯(lián)文件等。

額外的代碼

今天,我們將為大家介紹 TensorFlow Lite Task Library,這是一組功能強(qiáng)大且易于使用的模型接口,可代您處理大多數(shù)預(yù)處理和后處理以及其他復(fù)雜邏輯。Task Library 支持主流的機(jī)器學(xué)習(xí)任務(wù),包括圖像分類(lèi)與分割、目標(biāo)檢測(cè)和自然語(yǔ)言處理。模型接口針對(duì)每個(gè)任務(wù)進(jìn)行過(guò)專(zhuān)門(mén)設(shè)計(jì),可實(shí)現(xiàn)最佳性能和易用性——現(xiàn)在,只需 5 行代碼就可以在受支持任務(wù)的預(yù)訓(xùn)練和自定義模型上執(zhí)行推理!目前,Task Library 已廣泛用于許多 Google 產(chǎn)品的生產(chǎn)環(huán)境中。

TensorFlow Lite Task Library
https://tensorflow.google.cn/lite/inference_with_metadata/task_library/overview

支持的 ML 任務(wù)

TensorFlow Lite Task Library 目前支持六個(gè) ML 任務(wù),包括視覺(jué)和自然語(yǔ)言處理用例。下面將逐一進(jìn)行簡(jiǎn)要介紹。

ImageClassifier
圖像分類(lèi)器是機(jī)器學(xué)習(xí)的一種常見(jiàn)用例,用于識(shí)別圖像所代表的內(nèi)容。例如,我們可能想知道給定圖片中出現(xiàn)了哪種動(dòng)物。ImageClassifier API 支持常見(jiàn)的圖像處理和配置,還允許在特定的受支持區(qū)域設(shè)置中顯示標(biāo)簽,并根據(jù)標(biāo)簽許可名單和禁止名單篩選結(jié)果。

ObjectDetector
物體檢測(cè)器可以識(shí)別一組中可能存在哪些已知物體,并提供這些物體在給定圖像或視頻串流中的位置信息。ObjectDetector API 支持類(lèi)似于 ImageClassifer 的圖像處理選項(xiàng)。輸出結(jié)果將列出檢測(cè)到的前 k 個(gè)物體并帶有標(biāo)簽、邊界框和概率。

ImageSegmenter
圖像分割器預(yù)測(cè)圖像的每個(gè)像素是否與某個(gè)類(lèi)相關(guān)聯(lián)。這與物體檢測(cè)(檢測(cè)矩形區(qū)域中的物體)和圖像分類(lèi)(對(duì)整個(gè)圖像進(jìn)行分類(lèi))相反。除圖像處理外,ImageSegmenter 還支持兩種類(lèi)型的輸出蒙版:類(lèi)別蒙版和置信度蒙版。

NLClassifier 和 BertNLClassifier

NLClassifier將輸入文本分為不同的類(lèi)別??蓪?duì)該通用 API 進(jìn)行配置,使其可以加載任何支持文本輸入和分?jǐn)?shù)輸出的 TFLite 模型。

BertNLClassifier 與 NLClassifier 類(lèi)似,不同之處在于,此 API 專(zhuān)門(mén)為 BERT 相關(guān)模型量身定制,需要在 TFLite 模型之外進(jìn)行 Wordpiece 和 Sentencepiece 分詞。

BertQuestionAnswerer
BertQuestionAnswerer 加載 BERT 模型并根據(jù)給定段落的內(nèi)容回答問(wèn)題。目前支持 MobileBERT 和 ALBERT。與 BertonCollector 類(lèi)似,BertQuestionAnswerer 封裝了對(duì)輸入文本的復(fù)雜分詞處理。您可以將上下文和問(wèn)題以字符串形式傳遞給 BertQuestionAnswerer 模型。

支持的模型

Task Library 與下列已知的模型源兼容:

TensorFlow Hub Task Library 模型集合(圖像分類(lèi)/物體檢測(cè)/圖像分割/問(wèn)答)。

TensorFlow Lite Model Maker 創(chuàng)建的模型。

AutoML Vision Edge 創(chuàng)建的模型。

Task Library 還支持符合每個(gè) Task API 的模型兼容性要求的自定義模型。關(guān)聯(lián)的文件(即標(biāo)簽圖和 vocab 文件)和處理參數(shù)(如果適用)應(yīng)正確填充到模型元數(shù)據(jù)中。有關(guān)更多詳細(xì)信息,請(qǐng)參見(jiàn) TensorFlow 網(wǎng)站上針對(duì)每個(gè) API 的文檔。

模型元數(shù)據(jù)
https://tensorflow.google.cn/lite/convert/metadata

TensorFlow 網(wǎng)站上針對(duì)每個(gè) API 的文檔
https://tensorflow.google.cn/lite/inference_with_metadata/task_library/overview

使用 Task Library 運(yùn)行推理

Task Library 可跨平臺(tái)工作,并且在 JavaC++(實(shí)驗(yàn)性)和 Swift(實(shí)驗(yàn)性)上均受支持。使用 Task Library 運(yùn)行推理十分簡(jiǎn)單,只需編寫(xiě)幾行代碼。例如,您可以使用 DeepLab v3 TFLite 模型在 Android 中分割飛機(jī)圖像(圖 1),如下所示:

// Create the API from a model file and options String modelPath = "path/to/model.tflite" ImageSegmenterOptions options = ImageSegmenterOptions.builder().setOutputType(OutputType.CONFIDENCE_MASK).build(); ImageSegmenter imageSegmenter = ImageSegmenter.createFromFileAndOptions(context, modelPath, options); // Segment an image TensorImage image = TensorImage.fromBitmap(bitmap); List results = imageSegmenter.segment(image);

圖 1. ImageSegmenter 輸入圖像

圖 2. 分割蒙版

然后,您可以在結(jié)果中使用彩色標(biāo)簽和類(lèi)別蒙版來(lái)構(gòu)造分割蒙版圖像,如圖 2 所示。

三個(gè)文本 API 均支持 Swift。要在 iOS 中使用 SQuAD v1 TFLite 模型對(duì)給定的上下文和問(wèn)題執(zhí)行問(wèn)答,您可以運(yùn)行:

let modelPath = "path/to/model.tflite" // Create the API from a model file let mobileBertAnswerer = TFLBertQuestionAnswerer.mobilebertQuestionAnswerer(modelPath: modelPath) let context = """ The Amazon rainforest, alternatively, the Amazon Jungle, also known in English as Amazonia, is a moist broadleaf tropical rainforest in the Amazon biome that covers most of the Amazon basin of South America. This basin encompasses 7,000,000 square kilometers(2,700,000 square miles), of which 5,500,000 square kilometers(2,100,000 square miles) are covered by the rainforest. This region includes territory belonging to nine nations. """ let question = "Where is Amazon rainforest?" // Answer a question let answers = mobileBertAnswerer.answer(context: context, question: question) // answers.[0].text could be “South America.”

DeepLab v3 TFLite 模型
https://tfhub.dev/tensorflow/lite-model/deeplabv3/1/metadata/1

SQuAD v1 TFLite 模型
https://tfhub.dev/tensorflow/lite-model/albert_lite_base/squadv1/1

為您的用例構(gòu)建一個(gè) Task API

如果現(xiàn)有 Task 庫(kù)不支持您的用例,則您可以利用 Task API 基礎(chǔ)架構(gòu)并構(gòu)建自定義 C++/Android/iOS 推理 API。有關(guān)更多詳細(xì)信息,請(qǐng)參閱本指南。

指南
https://tensorflow.google.cn/lite/inference_with_metadata/task_library/customized_task_api

未來(lái)工作

我們將繼續(xù)改善 Task Library 的用戶(hù)體驗(yàn)。近期的路線(xiàn)圖如下:

改善 C++ Task Library 的易用性,例如為希望從源代碼構(gòu)建的用戶(hù)提供預(yù)構(gòu)建的二進(jìn)制文件并創(chuàng)建人性化工作流。

使用 Task Library 發(fā)布參考示例。

通過(guò)新的任務(wù)類(lèi)型支持更多的機(jī)器學(xué)習(xí)用例。

改善跨平臺(tái)支持,針對(duì) iOS 支持更多任務(wù)。

反饋

歡迎大家提供反饋,并就 Task Library 中支持的新用例給出建議。請(qǐng)向 tflite@tensorflow.org 發(fā)送電子郵件或在 GitHub 中提 issue。

issue
https://github.com/tensorflow/tflite-support/issues/new

致謝

這項(xiàng)成果離不開(kāi)以下人員的共同努力:

Task Library Vision API 的主要貢獻(xiàn)者 Cédric Deltheil 和 Maxime Brénon。

Task Library 原生/Android/iOS 基礎(chǔ)架構(gòu)和 Text API 的主要貢獻(xiàn)者 Chen Cen。

開(kāi)發(fā)基礎(chǔ)結(jié)構(gòu)和發(fā)布流程的主要貢獻(xiàn)者 Xunkai 和 YoungSeok Yoon。

以及 Tian Lin、Sijia Ma、YoungSeok Yoon、Yuqi Li、Hsiu Wang、Qifei Wang、Alec Go、Christine Kaeser-Chen、Yicheng Fan、Elizabeth Kemp、Willi Gierke、Arun Venkatesan、Amy Jang、Mike Liang、Denis Brulé、Gaurav Nemade、Khanh LeViet、Luiz GUStavo Martins、Shuangfeng Li、Jared Duke、Erik Vee、Sarah Sirajuddin 以及 Tim Davis 都對(duì)本項(xiàng)目給予了大力支持,在此一并表示感謝。

原文標(biāo)題:推出 TF Lite Task Library 接口,簡(jiǎn)化 ML移動(dòng)端開(kāi)發(fā)流程

文章出處:【微信公眾號(hào):TensorFlow】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • TF
    TF
    +關(guān)注

    關(guān)注

    0

    文章

    62

    瀏覽量

    33925
  • 源代碼
    +關(guān)注

    關(guān)注

    96

    文章

    2953

    瀏覽量

    70155
  • TensorFlow Lite
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    822

原文標(biāo)題:推出 TF Lite Task Library 接口,簡(jiǎn)化 ML移動(dòng)端開(kāi)發(fā)流程

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用NORDIC AI的好處

    ; 自定義 Neuton 模型博客] Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的專(zhuān)用 AI 加速器,對(duì) TensorFlow Lite 模型可實(shí)現(xiàn)最高約 1
    發(fā)表于 01-31 23:16

    如何在TensorFlow Lite Micro中添加自定義操作符(1)

    相信大家在部署嵌入式端的AI應(yīng)用時(shí),一定使用過(guò)TensorFlow Lite Micro,以下簡(jiǎn)稱(chēng)TFLm。TFLm 是專(zhuān)為微控制器和嵌入式設(shè)備設(shè)計(jì)的輕量級(jí)機(jī)器學(xué)習(xí)推理框架,它通過(guò)模塊化的操作符系統(tǒng)
    的頭像 發(fā)表于 12-26 10:34 ?4998次閱讀

    【上海晶珩睿莓1開(kāi)發(fā)板試用體驗(yàn)】將TensorFlow-Lite物體歸類(lèi)(classify)的輸出圖片移植到LVGL9.3界面中

    既然調(diào)通了TensorFlow-Lite物體歸類(lèi)(classify)和LVGL9.3代碼,那么把這兩個(gè)東西結(jié)合起來(lái)也是沒(méi)問(wèn)題的,需要注意的是,TensorFlow-Lite是C++代碼,而
    發(fā)表于 09-21 00:39

    【上海晶珩睿莓1開(kāi)發(fā)板試用體驗(yàn)】TensorFlow-Lite物體歸類(lèi)(classify)

    目前尚未得知睿莓1開(kāi)發(fā)板上面有NPU或者DPU之類(lèi)的額外處理器,因此使用樹(shù)莓派系列使用最廣泛的TensorFlow-Lite庫(kù)進(jìn)行物體歸類(lèi),使用CPU運(yùn)行代碼,因此占用的是CPU的算力。在
    發(fā)表于 09-12 22:43

    無(wú)法將Tensorflow Lite模型轉(zhuǎn)換為OpenVINO?格式怎么處理?

    Tensorflow Lite 模型轉(zhuǎn)換為 OpenVINO? 格式。 遇到的錯(cuò)誤: FrontEnd API failed with OpConversionFailure:No translator found for
    發(fā)表于 06-25 08:27

    用樹(shù)莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    RaspberryPi4上運(yùn)行TensorFlow,但不要期望有奇跡般的表現(xiàn)。如果模型不太復(fù)雜,它可以運(yùn)行您的模型,但無(wú)法訓(xùn)練新模型,也無(wú)法執(zhí)行所謂的遷移學(xué)習(xí)。除了運(yùn)行您預(yù)
    的頭像 發(fā)表于 03-25 09:33 ?1172次閱讀
    用樹(shù)莓派搞深度學(xué)習(xí)?<b class='flag-5'>TensorFlow</b>啟動(dòng)!

    TensorFlow模型轉(zhuǎn)換為中間表示 (IR) 時(shí)遇到不一致的形狀錯(cuò)誤怎么解決?

    使用命令轉(zhuǎn)換為 Tensorflow* 模型: mo --input_model ../models/middlebury_d400.pb --input_shape [1,352,704,6
    發(fā)表于 03-07 08:20

    使用OpenVINO? 2020.4.582將自定義TensorFlow 2模型轉(zhuǎn)換為中間表示 (IR)收到錯(cuò)誤怎么解決?

    轉(zhuǎn)換自定義 TensorFlow 2 模型 mask_rcnn_inception_resnet_v2_1024x1024_coco17 要 IR 使用模型優(yōu)化器命令: 注意上面的鏈接可能無(wú)法
    發(fā)表于 03-07 07:28

    將YOLOv4模型轉(zhuǎn)換為IR的說(shuō)明,無(wú)法將模型轉(zhuǎn)換為TensorFlow2格式怎么解決?

    遵照 將 YOLOv4 模型轉(zhuǎn)換為 IR 的 說(shuō)明,但無(wú)法將模型轉(zhuǎn)換為 TensorFlow2* 格式。 將 YOLOv4 darknet 轉(zhuǎn)換為 Keras 模型時(shí),收到 Type
    發(fā)表于 03-07 07:14

    Tensorflow Efficientdet-d0模型轉(zhuǎn)換為OpenVINO? IR失敗了,怎么解決?

    使用轉(zhuǎn)換命令 mo --saved_model_dir /home/obs-56/effi/saved_model 將 TensorFlow* efficientdet-d0 模型轉(zhuǎn)換為 IR
    發(fā)表于 03-06 08:18

    可以使用OpenVINO?工具包將中間表示 (IR) 模型轉(zhuǎn)換為TensorFlow格式嗎?

    無(wú)法將中間表示 (IR) 模型轉(zhuǎn)換為 TensorFlow* 格式
    發(fā)表于 03-06 06:51

    使用各種TensorFlow模型運(yùn)行模型優(yōu)化器時(shí)遇到錯(cuò)誤非法指令怎么解決?

    使用各種 TensorFlow 模型運(yùn)行模型優(yōu)化器時(shí)遇到 [i]錯(cuò)誤非法指令
    發(fā)表于 03-05 09:56

    為什么無(wú)法使用OpenVINO?模型優(yōu)化器轉(zhuǎn)換TensorFlow 2.4模型?

    已下載 ssd_mobilenet_v2_fpnlite_640x640_coco17_tpu-8 型號(hào)。 使用將模型轉(zhuǎn)換為中間表示 (IR) ssd_support_api_v.2.4.json
    發(fā)表于 03-05 09:07

    為什么無(wú)法將TensorFlow自定義模型轉(zhuǎn)換為IR格式?

    TensorFlow* 自定義模型轉(zhuǎn)換為 IR 格式: mo --data_type FP16 --saved_model_dir--input_shape (1,150,150,3
    發(fā)表于 03-05 07:26

    為什么無(wú)法將自定義EfficientDet模型TensorFlow 2轉(zhuǎn)換為中間表示(IR)?

    將自定義 EfficientDet 模型TensorFlow* 2 轉(zhuǎn)換 為 IR 時(shí)遇到錯(cuò)誤: [ ERROR ] Exception occurred during running replacer \"REPLACEMENT_ID\" ()
    發(fā)表于 03-05 06:29