chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用TensorFlow制作一個(gè)圖像識(shí)別工具的構(gòu)建步驟解析

zhKF_jqr_AI ? 2018-01-18 13:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:本文作者Sara Robinson在Medium上發(fā)布了一個(gè)有趣的項(xiàng)目,她自制了一款A(yù)PP,能自動(dòng)識(shí)別歌手Taylor Swift。這與我們之前介紹的尋找威利項(xiàng)目很像。該教程非常詳細(xì),有興趣的同學(xué)可以學(xué)習(xí)一下,動(dòng)手做一個(gè)自己的圖像識(shí)別工具哦~本文已獲作者授權(quán),以下是對(duì)原文的編譯。

注:由于寫(xiě)作本文時(shí)TensorFlow沒(méi)有Swift庫(kù),我用Swift構(gòu)建了針對(duì)我的模型的預(yù)測(cè)請(qǐng)求的APP。

以下就是我們創(chuàng)建的APP:

TensorFlow物體檢測(cè)API能讓你識(shí)別出一張圖片中特定物體的位置,這可以應(yīng)用到許多有趣的程序上。不過(guò)我平常拍人比較多,所以就想把這一技術(shù)應(yīng)用到人臉識(shí)別上。結(jié)果發(fā)現(xiàn)模型表現(xiàn)得非常好!也就是上圖我創(chuàng)建的Taylor Swift檢測(cè)器。

本文將列出模型的構(gòu)建步驟,從收集Taylor Swift的照片到模型的訓(xùn)練:

對(duì)圖像進(jìn)行預(yù)處理,改變大小、貼標(biāo)簽、將它們分成訓(xùn)練和測(cè)試兩部分,并修改成Pascal VOC格式;

將圖片轉(zhuǎn)化成TFRecords文件以符合物體檢測(cè)API;

利用MobileNet在谷歌Cloud ML Engine上訓(xùn)練模型;

導(dǎo)出訓(xùn)練好的模型并將其部署到ML Engine上進(jìn)行服務(wù);

構(gòu)建一個(gè)iOS前端,根據(jù)訓(xùn)練好的模型做出預(yù)測(cè)請(qǐng)求(使用Swift)。

下面是各部分如何結(jié)合在一起的架構(gòu)圖:

用TensorFlow制作一個(gè)圖像識(shí)別工具的構(gòu)建步驟解析

在開(kāi)始之前,首先要解釋一下我們即將用到的技術(shù)和術(shù)語(yǔ):TensorFlow物體檢測(cè)API是一個(gè)構(gòu)建在TensorFlow上的框架,用于識(shí)別圖像中特定的對(duì)象。例如,你可以用很多貓的照片訓(xùn)練它,一旦訓(xùn)練完畢,你可以輸入一張貓的圖像,它就會(huì)輸出一個(gè)方框列表,認(rèn)為圖像中有一只貓。雖然它的名字中含有API,但是你可以將它更多地想象成用于遷移學(xué)習(xí)的一套便利的工具。

但是,訓(xùn)練模型識(shí)別圖像中的對(duì)象是個(gè)費(fèi)時(shí)費(fèi)力的活。物體檢測(cè)最酷的地方就是它支持五個(gè)預(yù)訓(xùn)練模型的遷移學(xué)習(xí)(transfer learning),那么什么是遷移學(xué)習(xí)呢?比如,當(dāng)兒童學(xué)習(xí)第一門(mén)語(yǔ)言時(shí),他們會(huì)接觸大量的例子,如果有錯(cuò)就會(huì)立刻被糾正過(guò)來(lái)。例如當(dāng)孩子們學(xué)習(xí)識(shí)別貓時(shí),他們的父母會(huì)指著圖片上的貓,并說(shuō)出“貓”這個(gè)詞,這種重復(fù)增強(qiáng)了他們的腦回路。當(dāng)它們學(xué)習(xí)如何識(shí)別一只狗時(shí),無(wú)需從頭開(kāi)始,這一過(guò)程與貓的識(shí)別類(lèi)似,只是學(xué)習(xí)對(duì)象不同。這就是遷移學(xué)習(xí)的工作原理

但我沒(méi)有時(shí)間尋找并標(biāo)記數(shù)千個(gè)Taylor Swift的圖像,但是我可以通過(guò)修改最后幾個(gè)圖層、在數(shù)百萬(wàn)張圖像上訓(xùn)練的模型中提取特征,應(yīng)用于TSwift的檢測(cè)。

第一步:預(yù)處理圖像

首先要感謝Dat Tran寫(xiě)的關(guān)于浣熊檢測(cè)器的博客,地址:https://towardsdatascience.com/how-to-train-your-own-object-detector-with-tensorflows-object-detector-api-bec72ecfe1d9

首先,我從谷歌圖片上下載了200張Taylor Swift的照片,這里安利一個(gè)Chrome插件:Fatkun Batch Download Image,可以下載所有圖片搜索結(jié)果。在打標(biāo)簽之前,我把圖片分為兩類(lèi):訓(xùn)練和測(cè)試。另外,我寫(xiě)了一個(gè)調(diào)整圖片大小的腳本(https://github.com/sararob/tswift-detection/blob/master/resize.py),確保每張圖的寬度不超過(guò)600px。

由于檢測(cè)器會(huì)告訴我們圖中的對(duì)象位置,所以你不能直接把圖像和標(biāo)簽作為訓(xùn)練數(shù)據(jù)。你需要用邊框?qū)?duì)象圈出來(lái),以及將表框打上標(biāo)簽(在我們的數(shù)據(jù)集中,只需要一個(gè)標(biāo)簽tswift)。

打邊框工具依然使用LabelImg,這是一個(gè)基于Python的程序,你只需輸入帶標(biāo)簽的圖像,它就會(huì)輸出一個(gè)xml文件,將每張照片都打上邊框同時(shí)還有相關(guān)標(biāo)簽(不到一上午我就處理好200張圖片了)。下面是它如何工作的(標(biāo)簽輸入為tswift):

然后LabelImg生成一個(gè)xml文件:

Desktop

tswift.jpg

/Desktop/tswift.jpg

Unknown

1000

667

3

0

tswift

Unspecified

0

0

420

80

582

291

現(xiàn)在我有了一張帶有邊框和標(biāo)簽的圖片了,但是我還要把它轉(zhuǎn)換成TensorFlow可接受的方式——一個(gè)數(shù)據(jù)的二進(jìn)制表示TFRecord。關(guān)于這一方法可以在GitHub上查看。要運(yùn)行我的腳本,你需要先下載一個(gè)tensorflow/models,從tensorflow/models/research本地直接運(yùn)行腳本,帶上以下參數(shù)(運(yùn)行兩次:一次用于訓(xùn)練數(shù)據(jù),一次用于測(cè)試數(shù)據(jù))

python convert_labels_to_tfrecords.py

--output_path=train.record

--images_dir=path/to/your/training/images/

--labels_dir=path/to/training/label/xml/

第二步:訓(xùn)練檢測(cè)器

我可以在筆記本電腦上訓(xùn)練這個(gè)模型,但是時(shí)間會(huì)很長(zhǎng),而且占用大量的資源。并且一旦我需要用電腦做別的事,訓(xùn)練就會(huì)中斷。所以,我選擇了云!我們可以利用云來(lái)運(yùn)行多個(gè)跨核心的訓(xùn)練,幾個(gè)小時(shí)內(nèi)就能完成整個(gè)工作,并且用Cloud ML engine的速度比GPU還要快。

設(shè)置Cloud ML Engine

我準(zhǔn)備將所有TFRecord格式的數(shù)據(jù)上傳到云并開(kāi)始訓(xùn)練。首先,我在谷歌云端控制臺(tái)中創(chuàng)建了一個(gè)項(xiàng)目,并啟用了Cloud ML Engine:

用TensorFlow制作一個(gè)圖像識(shí)別工具的構(gòu)建步驟解析

然后,我將創(chuàng)建一個(gè)云存儲(chǔ)bucket來(lái)打包模型的所有資源。確保在指定區(qū)域進(jìn)行存儲(chǔ)(不要選擇多個(gè)區(qū)域):

我將在這個(gè)bucket中/data子目錄來(lái)放置訓(xùn)練和測(cè)試TFRecord的文件:

目標(biāo)對(duì)象檢測(cè)API還需要一個(gè)將標(biāo)簽映射到整數(shù)ID的pbtxt文件。由于我們只有一個(gè)標(biāo)簽,這個(gè)是非常短的:

item {

id: 1

name: 'tswift'

}

添加MobileNet檢查點(diǎn)進(jìn)行遷移學(xué)習(xí)

因?yàn)槲也⒎菑牧汩_(kāi)始訓(xùn)練這個(gè)模型,所以當(dāng)我運(yùn)行訓(xùn)練時(shí),我需要指向我將要建立的預(yù)訓(xùn)練模型。我選擇使用MobileNet模型——它是針對(duì)移動(dòng)設(shè)備優(yōu)化的一系列小模型。雖然我不會(huì)直接在移動(dòng)設(shè)備上訓(xùn)練模型,但MobileNet將會(huì)快速訓(xùn)練,并允許更快的預(yù)測(cè)請(qǐng)求。我下載了這個(gè)MobileNet檢查點(diǎn)用于訓(xùn)練,檢查點(diǎn)是一個(gè)二進(jìn)制文件,包含訓(xùn)練過(guò)程中特定點(diǎn)的TensorFlow模型的狀態(tài)。下載并解壓縮后,你可以看到它包含的三個(gè)文件:

以上所有都要用來(lái)訓(xùn)練模型,所以我將它們放在云存儲(chǔ)bucket中的同一個(gè)data/目錄中。

在開(kāi)始訓(xùn)練之前,還需要添加一個(gè)文件。對(duì)象檢測(cè)腳本需要一種方法查找模型的檢查點(diǎn)、標(biāo)簽映射和訓(xùn)練數(shù)據(jù)。我們將用配置文件處理這一點(diǎn)。TF對(duì)象檢測(cè)為五個(gè)預(yù)訓(xùn)練模型采集了樣本配置文件。我們?cè)谶@里為MobileNet使用一個(gè),并且在云存儲(chǔ)bucket的相應(yīng)路徑中更新了所有PATH_TO_BE_CONFIGURED占位符。除了將我的模型連接到云存儲(chǔ)中的數(shù)據(jù)外,此文件還為我的模型配置了幾個(gè)超參數(shù),如卷積大小、激活函數(shù)和步驟。

以下是開(kāi)始訓(xùn)練之前云存儲(chǔ)bucket中我的/data中的所有文件:

我還會(huì)在bucket中創(chuàng)建train/和eval/子目錄——這是TensorFlow在訓(xùn)練和評(píng)估時(shí)書(shū)寫(xiě)模型檢查點(diǎn)文件的地方。

現(xiàn)在已經(jīng)準(zhǔn)備好訓(xùn)練了,通過(guò)執(zhí)行g(shù)cloud命令開(kāi)始。請(qǐng)注意,你需要在本地復(fù)制tensorflow/models/research并從該目錄運(yùn)行此訓(xùn)練腳本:

# Run this script from tensorflow/models/research:

gcloud ml-engine jobs submit training ${YOUR_TRAINING_JOB_NAME}

--job-dir=${YOUR_GCS_BUCKET}/train

--packages dist/object_detection-0.1.tar.gz,slim/dist/slim-0.1.tar.gz

--module-name object_detection.train

--region us-central1

--config object_detection/samples/cloud/cloud.yml

--runtime-version=1.4

--

--train_dir=${YOUR_GCS_BUCKET}/train

--pipeline_config_path=${YOUR_GCS_BUCKET}/data/ssd_mobilenet_v1_coco.config

訓(xùn)練的同時(shí),我也開(kāi)始了評(píng)估工作。我會(huì)使用之前從未見(jiàn)過(guò)的數(shù)據(jù)來(lái)評(píng)估模型的準(zhǔn)確性:

# Run this script from tensorflow/models/research:

gcloud ml-engine jobs submit training ${YOUR_EVAL_JOB_NAME}

--job-dir=${YOUR_GCS_BUCKET}/train

--packages dist/object_detection-0.1.tar.gz,slim/dist/slim-0.1.tar.gz

--module-name object_detection.eval

--region us-central1

--scale-tier BASIC_GPU

--runtime-version=1.4

--

--checkpoint_dir=${YOUR_GCS_BUCKET}/train

--eval_dir=${YOUR_GCS_BUCKET}/eval

--pipeline_config_path=${YOUR_GCS_BUCKET}/data/ssd_mobilenet_v1_coco.config

你可以通過(guò)在云端控制臺(tái)導(dǎo)航到ML Engine的“作業(yè)”部分來(lái)驗(yàn)證您的任務(wù)是否正確運(yùn)行,并檢查日志以查找特定作業(yè):

用TensorFlow制作一個(gè)圖像識(shí)別工具的構(gòu)建步驟解析

第三步:部署預(yù)測(cè)模型

為了將模型部署到ML Engine,我需要將模型檢查點(diǎn)轉(zhuǎn)換為ProtoBuf。在我的train/bucket中,可以看到從幾處保留的檢查點(diǎn)文件:

文件的第一行告訴我最新的檢查點(diǎn)路徑——我應(yīng)從該檢查點(diǎn)本地下載3個(gè)文件。每個(gè)檢查點(diǎn)應(yīng)該有一個(gè).index,.meta,和.data文件。將它們保存在本地目錄中后,我可以使用對(duì)象檢測(cè)的export_inference_graph腳本將它們轉(zhuǎn)換為ProtoBuf。要運(yùn)行以下腳本,你需要定義MobileNet配置文件的本地路徑、訓(xùn)練時(shí)下載的模型檢查點(diǎn)編號(hào)以及要導(dǎo)出的圖形目錄名稱(chēng):

# Run this script from tensorflow/models/research:

python object_detection/export_inference_graph.py

--input_type encoded_image_string_tensor

--pipeline_config_path ${LOCAL_PATH_TO_MOBILENET_CONFIG}

--trained_checkpoint_prefix model.ckpt-${CHECKPOINT_NUMBER}

--output_directory ${PATH_TO_YOUR_OUTPUT}.pb

這個(gè)腳本運(yùn)行后,你將會(huì)在.pb輸出目錄中看到一個(gè)saved_model/目錄。將saved_model.pb文件上傳到你的云存儲(chǔ)/data目錄中(不要擔(dān)心生成其他文件)。

現(xiàn)在你已經(jīng)準(zhǔn)備好將模型部署到ML Engine上了。首先,用gcloud創(chuàng)建你的模型:

gcloud ml-engine models create tswift_detector

然后,通過(guò)將模型指向剛剛上傳到云存儲(chǔ)的已保存的ProtoBuf來(lái)創(chuàng)建第一個(gè)模型版本:

gcloud ml-engine versions create v1 --model=tswift_detector --origin=gs://${YOUR_GCS_BUCKET}/data --runtime-version=1.4

模型部署好后,我將用ML Engine的線上預(yù)測(cè)API生成新的預(yù)測(cè)圖像。

第四步:使用Firebase函數(shù)和Swift構(gòu)建預(yù)測(cè)客戶(hù)端

我在Swift中編寫(xiě)了一個(gè)iOS客戶(hù)端來(lái)對(duì)我的模型進(jìn)行預(yù)測(cè)請(qǐng)求。Swift客戶(hù)端將圖像上傳到云存儲(chǔ),云存儲(chǔ)觸發(fā)Firebase函數(shù),在Node.js中發(fā)起預(yù)測(cè)請(qǐng)求,并將生成的預(yù)測(cè)圖像和數(shù)據(jù)保存到云存儲(chǔ)和Firebase中。

首先,在我的Swift客戶(hù)端中,我添加了一個(gè)按鈕,供用戶(hù)訪問(wèn)設(shè)備的圖片庫(kù)。用戶(hù)選擇照片后,會(huì)觸發(fā)將圖像上傳到云端存儲(chǔ)的操作:

let firestore = Firestore.firestore()

func imagePickerController(_ picker: UIImagePickerController, didFinishPickingMediaWithInfo info: [String : Any]) {

let imageURL = info[UIImagePickerControllerImageURL] as? URL

let imageName = imageURL?.lastPathComponent

let storageRef = storage.reference().child("images").child(imageName!)

storageRef.putFile(from: imageURL!, metadata: nil) { metadata, error in

if let error = error {

print(error)

} else {

print("Photo uploaded successfully!")

// TODO: create a listener for the image's prediction data in Firestore

}

}

}

dismiss(animated: true, completion: nil)

}

接下來(lái),我編寫(xiě)了在上傳到云存儲(chǔ)時(shí)觸發(fā)的Firebase函數(shù)(https://github.com/sararob/tswift-detection/blob/master/firebase/functions/index.js)。下面的代碼也包含了我向ML Engine預(yù)測(cè)API發(fā)出請(qǐng)求的函數(shù)部分:

function cmlePredict(b64img, callback) {

return new Promise((resolve, reject) => {

google.auth.getApplicationDefault(function (err, authClient, projectId) {

if (err) {

reject(err);

}

if (authClient.createScopedRequired && authClient.createScopedRequired()) {

authClient = authClient.createScoped([

'https://www.googleapis.com/auth/cloud-platform'

]);

}

var ml = google.ml({

version: 'v1'

});

const params = {

auth: authClient,

name: 'projects/sara-cloud-ml/models/tswift_detector',

resource: {

instances: [

{

"inputs": {

"b64": b64img

}

}

]

}

};

ml.projects.predict(params, (err, result) => {

if (err) {

reject(err);

} else {

resolve(result);

}

});

});

});

}

在ML Engine的反應(yīng)中,我們得到:

detection_boxes:可以用來(lái)標(biāo)出Taylor Swift周?chē)倪吙颍?/p>

detection_scores:為每個(gè)檢測(cè)框架返回一個(gè)置信度值,其中只包括分?jǐn)?shù)高于70%的檢測(cè);

detection_classes:告訴我們與檢測(cè)相關(guān)的ID。在這種情況下,因?yàn)橹挥幸粋€(gè)標(biāo)簽所以該值總為1。

在函數(shù)中,如果檢測(cè)到Taylor,則用detection_boxes在圖像中繪制一個(gè)邊框以及生成置信度分?jǐn)?shù)。然后將新的帶有邊框的圖像保存到云中,將圖像的文件路徑寫(xiě)入Cloud Firestore,一邊在iOS應(yīng)用程序中讀取路徑并下載新圖像:

const admin = require('firebase-admin');

admin.initializeApp(functions.config().firebase);

const db = admin.firestore();

let outlinedImgPath = `outlined_img/${filePath.slice(7)}`;

let imageRef = db.collection('predicted_images').doc(filePath);

imageRef.set({

image_path: outlinedImgPath,

confidence: confidence

});

bucket.upload('/tmp/path/to/new/image', {destination: outlinedImgPath});

最后,在iOS應(yīng)用程序中,我們可以監(jiān)測(cè)圖像Firestore路徑的更新。如果檢測(cè)到目標(biāo),我會(huì)下載這張圖片并在應(yīng)用程序中顯示這張圖以及可信度分?jǐn)?shù)。這個(gè)函數(shù)將替換上一個(gè)代碼片段中的注釋?zhuān)?/p>

self.firestore.collection("predicted_images").document(imageName!)

.addSnapshotListener { documentSnapshot, error in

if let error = error {

print("error occurred(error)")

} else {

if (documentSnapshot?.exists)! {

let imageData = (documentSnapshot?.data())

self.visualizePrediction(imgData: imageData)

} else {

print("waiting for prediction data...")

}

}

}

好了!現(xiàn)在我們有一款Taylor Swift檢測(cè)器了!注意,由于模型只用了140張圖像進(jìn)行訓(xùn)練,所以準(zhǔn)確度不夠高,可能會(huì)把其他人誤認(rèn)為是Taylor。但是,如果有時(shí)間的話,我會(huì)收集更多貼有標(biāo)簽的圖片,并更新模型,發(fā)布到應(yīng)用商店里。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像識(shí)別
    +關(guān)注

    關(guān)注

    9

    文章

    532

    瀏覽量

    40018
  • SWIFT
    +關(guān)注

    關(guān)注

    0

    文章

    125

    瀏覽量

    24770
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    334

    瀏覽量

    62108

原文標(biāo)題:教程帖:用TensorFlow自制Taylor Swift識(shí)別器

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用Python卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像識(shí)別的基本步驟

    Python 卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像識(shí)別領(lǐng)域具有廣泛的應(yīng)用。通過(guò)使用卷積神經(jīng)網(wǎng)絡(luò),我們可以讓計(jì)算機(jī)從圖像中學(xué)習(xí)特征,從而實(shí)現(xiàn)對(duì)圖像的分類(lèi)、識(shí)別和分析等任務(wù)。以下是使用 Pytho
    的頭像 發(fā)表于 11-20 11:20 ?8322次閱讀

    【瑞芯微RK1808計(jì)算棒試用申請(qǐng)】圖像識(shí)別以及芯片評(píng)測(cè)

    `項(xiàng)目名稱(chēng):圖像識(shí)別以及芯片評(píng)測(cè)試用計(jì)劃:項(xiàng)目名稱(chēng):圖像識(shí)別以及芯片評(píng)測(cè)申請(qǐng)理由:1,拿到人工計(jì)算棒會(huì)進(jìn)行評(píng)估,完成linux項(xiàng)目的移植,本人有l(wèi)inux底層驅(qū)動(dòng)移植經(jīng)驗(yàn),以及rt-thread
    發(fā)表于 09-18 19:21

    研發(fā)干貨丨基于OK3399-C平臺(tái)android系統(tǒng)下實(shí)現(xiàn)圖像識(shí)別

    研發(fā)干貨丨基于OK3399-C平臺(tái)android系統(tǒng)下實(shí)現(xiàn)圖像識(shí)別首先我們了解下android系統(tǒng)常用的圖像識(shí)別框架:調(diào)用些不開(kāi)源庫(kù)進(jìn)行識(shí)別
    發(fā)表于 02-07 08:46

    如何構(gòu)建基于圖像識(shí)別的印制線路板精密測(cè)試系統(tǒng)?

    如何構(gòu)建基于圖像識(shí)別的印制線路板精密測(cè)試系統(tǒng)?圖像識(shí)別技術(shù)在印刷線路板精密測(cè)試中的應(yīng)用
    發(fā)表于 04-27 06:25

    圖像識(shí)別模組(包括PCB圖、圖像識(shí)別模組源代碼)

    圖像識(shí)別模組電路原理圖、圖像識(shí)別模組PCB圖、圖像識(shí)別模組源代碼、圖像識(shí)別模組用戶(hù)使用手冊(cè)
    發(fā)表于 01-02 19:14 ?123次下載

    圖像識(shí)別技術(shù)原理 深度學(xué)習(xí)的圖像識(shí)別應(yīng)用研究

      圖像識(shí)別是人工智能領(lǐng)域的個(gè)重要方向。經(jīng)過(guò)多年的研究,圖像識(shí)別技術(shù)取得了定的研究進(jìn)展。圖像識(shí)別
    發(fā)表于 07-19 10:27 ?4次下載

    模擬矩陣在圖像識(shí)別中的應(yīng)用

    訊維模擬矩陣在圖像識(shí)別中的應(yīng)用主要是通過(guò)構(gòu)建個(gè)包含多種圖像數(shù)據(jù)的模擬矩陣,來(lái)訓(xùn)練和測(cè)試深度學(xué)習(xí)模型,從而提高
    的頭像 發(fā)表于 09-04 14:17 ?1165次閱讀
    模擬矩陣在<b class='flag-5'>圖像識(shí)別</b>中的應(yīng)用

    基于TensorFlow和Keras的圖像識(shí)別

    TensorFlow和Keras最常見(jiàn)的用途之圖像識(shí)別/分類(lèi)。通過(guò)本文,您將了解如何使用Keras達(dá)到這目的。定義如果您不了解圖像識(shí)別
    的頭像 發(fā)表于 01-13 08:27 ?1754次閱讀
    基于<b class='flag-5'>TensorFlow</b>和Keras的<b class='flag-5'>圖像識(shí)別</b>

    圖像識(shí)別技術(shù)原理 圖像識(shí)別技術(shù)的應(yīng)用領(lǐng)域

    圖像識(shí)別技術(shù)是種通過(guò)計(jì)算機(jī)對(duì)圖像進(jìn)行分析和理解的技術(shù)。它借助計(jì)算機(jī)視覺(jué)、模式識(shí)別、人工智能等相關(guān)技術(shù),通過(guò)對(duì)圖像進(jìn)行特征提取和匹配,找出
    的頭像 發(fā)表于 02-02 11:01 ?5031次閱讀

    圖像檢測(cè)和圖像識(shí)別的區(qū)別是什么

    圖像檢測(cè)和圖像識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域的兩個(gè)重要研究方向,它們?cè)谠S多應(yīng)用場(chǎng)景中都有著廣泛的應(yīng)用。盡管它們?cè)谀承┓矫嬗邢嗨浦?,但它們之間還是存在些明顯的區(qū)別。本文將從多個(gè)角度對(duì)
    的頭像 發(fā)表于 07-03 14:41 ?2802次閱讀

    如何利用CNN實(shí)現(xiàn)圖像識(shí)別

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)領(lǐng)域中種特別適用于圖像識(shí)別任務(wù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過(guò)模擬人類(lèi)視覺(jué)系統(tǒng)的處理方式,利用卷積、池化等操作,自動(dòng)提取圖像中的特征,進(jìn)而實(shí)現(xiàn)高效的圖像識(shí)別。本
    的頭像 發(fā)表于 07-03 16:16 ?3604次閱讀

    opencv圖像識(shí)別有什么算法

    圖像識(shí)別算法: 邊緣檢測(cè) :邊緣檢測(cè)是圖像識(shí)別中的基本步驟,用于識(shí)別圖像中的邊緣。常見(jiàn)的邊緣
    的頭像 發(fā)表于 07-16 10:40 ?2481次閱讀

    圖像識(shí)別屬于人工智能嗎

    屬于。圖像識(shí)別是人工智能(Artificial Intelligence, AI)領(lǐng)域的個(gè)重要分支。 、圖像識(shí)別概述 1.1 定義
    的頭像 發(fā)表于 07-16 10:44 ?3156次閱讀

    圖像識(shí)別技術(shù)的原理是什么

    圖像識(shí)別技術(shù)是種利用計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)技術(shù)對(duì)圖像進(jìn)行分析和理解的技術(shù)。它可以幫助計(jì)算機(jī)識(shí)別和理解圖像中的對(duì)象、場(chǎng)景和活動(dòng)。
    的頭像 發(fā)表于 07-16 10:46 ?3671次閱讀

    圖像識(shí)別算法都有哪些方法

    圖像識(shí)別算法是計(jì)算機(jī)視覺(jué)領(lǐng)域的核心任務(wù)之,它涉及到從圖像中提取特征并進(jìn)行分類(lèi)、識(shí)別和分析的過(guò)程。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,圖像識(shí)別算法已
    的頭像 發(fā)表于 07-16 11:14 ?9237次閱讀