chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用TensorFlow Lite快速構(gòu)建移動端聲音分類應(yīng)用

Tensorflowers ? 來源:TensorFlow ? 作者:Khanh LeViet ? 2020-12-17 16:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

聲音分類是機器學(xué)習(xí)任務(wù)中的一項,您向機器學(xué)習(xí)模型輸入一些聲音將其分類成預(yù)定義的類別,例如犬吠聲、汽車鳴笛聲等。目前,已有許多聲音分類應(yīng)用,檢測非法砍伐活動、檢測座頭鯨的聲音以更好地了解它們的自然行為。

測非法砍伐活動
https://v.youku.com/v_show/id_XMzQ4MTUxOTIxNg==.html?spm=a2hzp.8253869.0.0

檢測座頭鯨的聲音
https://ai.googleblog.com/2018/10/acoustic-detection-of-humpback-whales.html

我們很高興地宣布,現(xiàn)在 Teachable Machine 可用于訓(xùn)練您自己的聲音分類模型,并可導(dǎo)出 TensorFlow Lite (TFLite) 格式模型。然后,您可以將 TFLite 模型集成到移動應(yīng)用或物聯(lián)網(wǎng)設(shè)備。這是快速運行聲音分類的簡便方式,分類之后,您可以在 Python 中探索構(gòu)建生產(chǎn)模型,再將其導(dǎo)出到 TFLite。

Teachable Machine
https://teachablemachine.withgoogle.com/

模型架構(gòu)

Teachable Machine 使用小型卷積模型對 1 秒音頻樣本進行分類。如上圖所示,模型接收聲譜圖(通過傅里葉變換獲取的聲音的 2D 時頻表示形式)。它首先會處理具有連續(xù)二維卷積層和最大池化層的聲譜圖。模型以多個全連接層結(jié)束,這些層與隨機 dropout 層交錯,用于減少訓(xùn)練過程中的過擬合。模型的最終輸出是一個概率分數(shù)數(shù)組,要訓(xùn)練模型識別的每個聲音類都有一個概率分數(shù)。

在 Python 中使用此方式訓(xùn)練您自己的聲音分類模型,請查看此教程。

教程
https://tensorflow.google.cn/tutorials/audio/simple_audio

使用您自己的數(shù)據(jù)集訓(xùn)練模型

使用您自己的數(shù)據(jù)集訓(xùn)練聲音分類模型有如下兩種方式:

簡單方式:連一行代碼都不需要寫,使用 Teachable Machine 收集訓(xùn)練數(shù)據(jù),并且全部在瀏覽器中訓(xùn)練模型。這種方式適用于想通過交互方式快速構(gòu)建原型的用戶。

穩(wěn)健方式:提前錄制要用作訓(xùn)練數(shù)據(jù)集的聲音,然后使用 Python 訓(xùn)練并認真地評估模型。當(dāng)然,這種方法的自動化以及可重復(fù)性也高于簡單方式。

使用 Teachable Machine 訓(xùn)練模型

Teachable Machine 是一款可用于創(chuàng)建訓(xùn)練數(shù)據(jù)集和訓(xùn)練多種機器學(xué)習(xí)模型的 GUI 工具,包括圖像分類、姿態(tài)分類和聲音分類。Teachable Machine 底層使用 TensorFlow.js 訓(xùn)練機器學(xué)習(xí)模型。您可以將訓(xùn)練的模型導(dǎo)出為 TensorFlow.js 格式,以在網(wǎng)絡(luò)瀏覽器中使用,或者導(dǎo)出為 TensorFlow Lite 格式,以在移動應(yīng)用或物聯(lián)網(wǎng)設(shè)備中使用。

下面是訓(xùn)練模型的步驟:

前往 Teachable Machine(https://teachablemachine.withgoogle.com)網(wǎng)站

創(chuàng)建一個音頻項目

為您想要識別的每個類別錄制一些聲音片段。每個類別只需要 8 秒的聲音

開始訓(xùn)練。完成后,您就可以在實時音頻源上測試您的模型

以 TFLite 格式導(dǎo)出模型

使用 Python 訓(xùn)練模型

如果錄音長達幾個小時或者有數(shù)十個類別,則在網(wǎng)絡(luò)瀏覽器上訓(xùn)練聲音分類可能耗時很長。在這種情況下,您可以提前收集訓(xùn)練數(shù)據(jù)集,將它們轉(zhuǎn)換成 WAV 格式,然后使用此 Colab Notebook(包括將模型轉(zhuǎn)換成 TFLite 格式的步驟)訓(xùn)練聲音分類。Google Colab 提供免費的 GPU,幫助您大幅提升模型訓(xùn)練的速度。

Notebook
https://colab.research.google.com/github/tensorflow/tfjs-models/blob/master/speech-commands/training/browser-fft/training_custom_audio_model_in_python.ipynb

通過 TF Lite 將模型部署到 Android

在 TensorFlow Lite 聲音分類模型訓(xùn)練完成后,您便可將其放到此 Android 示例應(yīng)用中試用。只需按照以下步驟操作: 1. 從 GitHub 克隆示例應(yīng)用:

git clone https://github.com/tensorflow/examples.git 2. 將聲音分類 Android 應(yīng)用導(dǎo)入 Android Studio。您可以在 lite/examples/sound_classification/android 文件夾中找到它。 3. 將模型(soundclassifier.tflite 和 labels.txt)添加到 src/main/assets 文件夾中,替換其中已有的示例模型。

4. 構(gòu)建應(yīng)用并將其部署到 Android 設(shè)備上?,F(xiàn)在,您就可以實時對聲音分類啦!

要將該模型集成到您自己的應(yīng)用中,您可以將 SoundClassifier.kt 類從示例應(yīng)用和已經(jīng)訓(xùn)練的 TFLite 復(fù)制到您的應(yīng)用。然后,您可以按如下方式使用該模型:

1. 從 Activity或 Fragment類初始化 SoundClassifier實例。

var soundClassifier: SoundClassifier soundClassifier = SoundClassifier(context).also { it.lifecycleOwner = context }


2. 開始從設(shè)備的麥克風(fēng)捕獲實時音頻,并實時分類:

soundClassifier.start()

3. 作為可讀類名稱的映射接收實時分類結(jié)果,以及當(dāng)前聲音屬于每個特定類別的概率。

let labelName = soundClassifier.labelList[0] // e.g. "Clap" soundClassifier.probabilities.observe(this) { resultMap -> let probability = result[labelName] // e.g. 0.7 }

未來計劃

我們正在開發(fā) iOS 版本的示例應(yīng)用,它將于幾周后發(fā)布。我們還會擴展 TensorFlow Lite Model Maker 以簡化 Python 中聲音分類的訓(xùn)練。敬請期待!

Model Maker
https://tensorflow.google.cn/lite/guide/model_maker

致謝

此項目由 Google 內(nèi)部的多個團隊聯(lián)合開發(fā)。特別感謝:

Google Research:Shanqing Cai、Lisie Lillianfeld

TensorFlow 團隊:Tian Lin

Teachable Machine 團隊:Gautam Bose、Jonas Jongejan

Android 團隊:Saryong Kang、Daniel Galpin、Jean-Michel Trivi、Don Turner

責(zé)任編輯:xj

原文標題:使用 TensorFlow Lite 快速構(gòu)建移動端聲音分類應(yīng)用

文章出處:【微信公眾號:TensorFlow】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    67

    文章

    8560

    瀏覽量

    137201
  • 移動端
    +關(guān)注

    關(guān)注

    0

    文章

    44

    瀏覽量

    4774
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    336

    瀏覽量

    62361
  • TensorFlow Lite
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    845

原文標題:使用 TensorFlow Lite 快速構(gòu)建移動端聲音分類應(yīng)用

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    10.如何在Allegro中快速精準移動器件?| 芯巧Allegro PCB 設(shè)計小訣竅

    ,這時我們就需要用到Allegro PCB設(shè)計工具提供的Move+Command的方式來實現(xiàn)快速精準移動器件。
    發(fā)表于 04-10 11:00

    在 NPU 上運行了 eIQ TensorFlow Lite 示例模型報錯

    我們已經(jīng)在 NPU 上運行了 eIQ TensorFlow Lite 示例模型,但它們失敗并出現(xiàn)以下錯誤: 信息:加載的模型 mobilenet_v1_1.0_224_quant.tflite
    發(fā)表于 03-18 06:52

    如何查看小智是否成功進入聲音設(shè)置?

    你可以通過后臺頁面狀態(tài)、設(shè)備反饋、語音測試三種方式,快速確認小智是否成功進入聲音設(shè)置并生效。 一、后臺頁面直接查看(最準) 登錄小智AI后臺:https://xiaozhi.me/console
    發(fā)表于 02-16 06:39

    使用NORDIC AI的好處

    ; 自定義 Neuton 模型博客] Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的專用 AI 加速器,對 TensorFlow Lite 模型可實現(xiàn)最高約 15× 推理加速、顯著
    發(fā)表于 01-31 23:16

    借助谷歌LiteRT構(gòu)建下一代高性能側(cè)AI

    自 2024 年 LiteRT 問世以來,我們一直致力于將機器學(xué)習(xí)技術(shù)棧從其 TensorFlow Lite (TFLite) 基礎(chǔ)之上演進為一個現(xiàn)代化的側(cè) AI (On-Device AI
    的頭像 發(fā)表于 01-30 11:23 ?3061次閱讀
    借助谷歌LiteRT<b class='flag-5'>構(gòu)建</b>下一代高性能<b class='flag-5'>端</b>側(cè)AI

    如何在TensorFlow Lite Micro中添加自定義操作符(1)

    相信大家在部署嵌入式的AI應(yīng)用時,一定使用過TensorFlow Lite Micro,以下簡稱TFLm。TFLm 是專為微控制器和嵌入式設(shè)備設(shè)計的輕量級機器學(xué)習(xí)推理框架,它通過模塊化的操作符系統(tǒng)
    的頭像 發(fā)表于 12-26 10:34 ?5698次閱讀

    福州移動與華為聯(lián)合推出國內(nèi)首個智能化體驗經(jīng)營系統(tǒng)

    近日,福州移動與華為聯(lián)合推出國內(nèi)首個智能化體驗經(jīng)營系統(tǒng),通過多智能管理系統(tǒng)協(xié)同,實現(xiàn)場景化體驗套餐的可預(yù)估、可保障、可保護、可評估,分層分級保障用戶在熱門景區(qū)、大型演唱會和體育賽事的流暢
    的頭像 發(fā)表于 10-24 09:46 ?641次閱讀

    釋放聲音的維度:高性能評估板為沉浸式音頻體驗快速便捷構(gòu)建聲場工具

    A316-V71-Game-V1是一款基于XMOS XU316技術(shù)的虛擬7.1游戲聲卡評估平臺,能夠?qū)⒘Ⅲw聲音頻轉(zhuǎn)換為虛擬7.1聲道環(huán)繞聲,為游戲玩家提供身臨其境的音頻體驗,幫助精確定位游戲中的聲音方向。
    的頭像 發(fā)表于 09-30 14:14 ?529次閱讀
    釋放<b class='flag-5'>聲音</b>的維度:高性能評估板為沉浸式音頻體驗<b class='flag-5'>快速</b>便捷<b class='flag-5'>構(gòu)建</b>聲場工具

    【上海晶珩睿莓1開發(fā)板試用體驗】將TensorFlow-Lite物體歸類(classify)的輸出圖片移植到LVGL9.3界面中

    既然調(diào)通了TensorFlow-Lite物體歸類(classify)和LVGL9.3代碼,那么把這兩個東西結(jié)合起來也是沒問題的,需要注意的是,TensorFlow-Lite是C++代碼,而
    發(fā)表于 09-21 00:39

    全新Arm C1 CPU集群推動移動側(cè)AI轉(zhuǎn)型

    隨著用戶期待在不連接云端服務(wù)的情況下,能在移動設(shè)備上享有更好的即時響應(yīng)、更智能的個性化服務(wù),更加實時處理的體驗,使其正迅速成為人工智能 (AI) 的強大載體。與此同時,隨著移動 AI 體驗從
    的頭像 發(fā)表于 09-15 14:27 ?2249次閱讀
    全新Arm C1 CPU集群推動<b class='flag-5'>移動</b><b class='flag-5'>端</b>側(cè)AI轉(zhuǎn)型

    【上海晶珩睿莓1開發(fā)板試用體驗】TensorFlow-Lite物體歸類(classify)

    目前尚未得知睿莓1開發(fā)板上面有NPU或者DPU之類的額外處理器,因此使用樹莓派系列使用最廣泛的TensorFlow-Lite庫進行物體歸類,使用CPU運行代碼,因此占用的是CPU的算力。在
    發(fā)表于 09-12 22:43

    技術(shù)洞見:THEIA S1 &amp; S1 LITE 直播機實操效果真的棒!

    的專業(yè)級演播室效果。 賦能移動,重構(gòu)格局 THEIA S1 LITE 致力于打造移動創(chuàng)作閉環(huán): 遠程協(xié)作: 通過網(wǎng)頁 WebGUI 管理系統(tǒng),導(dǎo)播可異地輕松接管設(shè)備調(diào)控。 隨著TH
    發(fā)表于 08-25 15:39

    聲源定位模塊-AR1105# 聲源定位# 聲音定位

    聲音降噪
    深圳市聲訊電子有限公司
    發(fā)布于 :2025年08月01日 16:01:09

    無法將Tensorflow Lite模型轉(zhuǎn)換為OpenVINO?格式怎么處理?

    Tensorflow Lite 模型轉(zhuǎn)換為 OpenVINO? 格式。 遇到的錯誤: FrontEnd API failed with OpConversionFailure:No translator found for TFLite_Detection_PostP
    發(fā)表于 06-25 08:27

    Arm 公司面向移動市場的 ?Arm Lumex? 深度解讀

    面向移動市場的 ? Arm Lumex ? 深度解讀 ? Arm Lumex ? 是 Arm 公司面向移動設(shè)備市場推出的新一代計算平臺,隸屬于其“平臺優(yōu)先”戰(zhàn)略的核心布局。作為 ? Arm 計算
    的頭像 發(fā)表于 05-29 09:54 ?4538次閱讀