chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用浮世繪人臉圖像的數(shù)據(jù)集來(lái)訓(xùn)練StyleGAN模型

LiveVideoStack ? 來(lái)源:LiveVideoStack ? 作者:LiveVideoStack ? 2020-12-07 13:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作為我的論文《基于分辨率的GAN插值用于域間的可控圖像合成》的一部分,我使用浮世繪人臉圖像的數(shù)據(jù)集來(lái)訓(xùn)練StyleGAN模型,本文包含該數(shù)據(jù)集的鏈接和該數(shù)據(jù)集的詳細(xì)信息。

更新

V2 - 刪除了28張質(zhì)量不好的圖像(對(duì)準(zhǔn)不良或沒有正面)。

V1 - 最初發(fā)行的版本,被使用在與分辨率相關(guān)的GAN插值的論文中,用于域之間的可控圖像合成。

數(shù)據(jù)集 浮世繪人臉數(shù)據(jù)集包含來(lái)自浮世繪照片的5209張臉部圖像。圖像像素為1024x1024、jpeg格式,并已根據(jù)FFHQ數(shù)據(jù)集所使用的過(guò)程進(jìn)行對(duì)齊。上面是數(shù)據(jù)集中(幾乎)所有圖像的地圖,對(duì)圖像進(jìn)行了繪制,以使相似的面孔看起來(lái)靠近在一起[2]。為了便于顯示, 圖像已縮小為256x256。 細(xì)節(jié) 圖片是從數(shù)個(gè)博物館網(wǎng)站上下載來(lái)的,然后我使用Amazon Rekognition嘗試從每個(gè)圖片中檢測(cè)面部和面部標(biāo)志。Rekognition在這兩個(gè)任務(wù)上都做得很合理,但是顯然并不完美,很多面部都被遺漏了,并且許多圖像中都存在對(duì)齊錯(cuò)誤。同時(shí),許多圖像的分辨率並不是很高,因此為了生成1024x1024分辨率的可用數(shù)據(jù)集,我使用了在Manga109數(shù)據(jù)集上訓(xùn)練的預(yù)訓(xùn)練的ESRGAN [3]模型來(lái)按需放大圖像,盡管這些圖像會(huì)留下一些瑕疵,但大體上的結(jié)果還是不錯(cuò)的。 其他數(shù)據(jù)集

KaoKore是浮世繪人臉的另一個(gè)數(shù)據(jù)集[4],它具有更多的多樣性和標(biāo)簽,但是圖像分辨率較低且人臉未對(duì)齊。 許可和使用 此數(shù)據(jù)集是根據(jù)``知識(shí)共享署名-相同方式共享4.0國(guó)際許可證''提供的。 如果使用數(shù)據(jù)集,請(qǐng)引用為“Aligned ukiyo-e faces dataset, Justin Pinkney 2020”或一個(gè)bibtex條目:

1. Pinkney, Justin N. M., and Doron Adler. ‘Resolution Dependent GAN Interpolation for Controllable Image Synthesis Between Domains’. ArXiv:2010.05334[Cs, Eess], 20 October 2020.http://arxiv.org/abs/2010.05334. 2. 為了生成此圖像,我首先使用在Imagenet上預(yù)訓(xùn)練的ResNet50從每個(gè)圖像中提取CNN的特征。然后使用UMAP將這些高維特征向量投影到二維,最后使用lapjv算法完成網(wǎng)格劃分。 3. Wang, Xintao, Ke Yu, Shixiang Wu, Jinjin Gu, Yihao Liu, Chao Dong, Chen Change Loy, Yu Qiao, and Xiaoou Tang. ‘ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks’. ArXiv:1809.00219[Cs], 1 September 2018.http://arxiv.org/abs/1809.00219. 4. Tian, Yingtao, Chikahiko Suzuki, Tarin Clanuwat, Mikel Bober-Irizar, Alex Lamb, and Asanobu Kitamoto. ‘KaoKore: A Pre-Modern Japanese Art Facial Expression Dataset’. ArXiv:2002.08595[Cs, Stat], 20 February 2020.http://arxiv.org/abs/2002.08595.

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1096

    瀏覽量

    42435
  • 分辨率
    +關(guān)注

    關(guān)注

    2

    文章

    1128

    瀏覽量

    43393
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26259

原文標(biāo)題:Ukiyo-e faces dataset 浮世繪面孔數(shù)據(jù)集

文章出處:【微信號(hào):livevideostack,微信公眾號(hào):LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能多模態(tài)與視覺大模型開發(fā)實(shí)戰(zhàn) - 2026必會(huì)

    訓(xùn)練模型可以逐漸提升對(duì)圖像的理解能力,實(shí)現(xiàn)對(duì)各種視覺任務(wù)的精準(zhǔn)處理。 此外,視覺大模型的發(fā)展還得益于大規(guī)模數(shù)據(jù)
    發(fā)表于 04-15 16:06

    【瑞薩AI挑戰(zhàn)賽】手寫數(shù)字識(shí)別模型在RA8P1 Titan Board上的部署

    ,該數(shù)據(jù)包含0-9共10類手寫數(shù)字,訓(xùn)練60000張、測(cè)試10000張,
    發(fā)表于 03-15 20:42

    基于級(jí)聯(lián)分類器的人臉檢測(cè)基本原理

    基于統(tǒng)計(jì)的方法。從高層的輸入輸出角度來(lái)描述,軟件輸入是一張圖像(可以表示為一個(gè)uint8_t或者uint16_t的數(shù)組),輸出是檢測(cè)的結(jié)果,如果檢測(cè)到人臉會(huì)輸出人臉的數(shù)量和對(duì)應(yīng)的位置,
    發(fā)表于 10-30 06:14

    如何將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型部署到蜂鳥e203開發(fā)板上

    。如果模型輸出的數(shù)據(jù)類型不同,您需要相應(yīng)地更改輸出數(shù)據(jù)的指針類型和處理方式。 這些步驟將使用TFLite模型進(jìn)行圖像預(yù)測(cè)。確保根據(jù)您的具體應(yīng)
    發(fā)表于 10-22 08:04

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù),訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識(shí)別。一旦模型
    發(fā)表于 10-22 07:03

    NVIDIA推出多語(yǔ)種語(yǔ)音AI開放數(shù)據(jù)模型

    新發(fā)布的 Granary 數(shù)據(jù)包含約 100 萬(wàn)小時(shí)音頻,可用于訓(xùn)練高精度、高吞吐量的 AI 音頻轉(zhuǎn)錄與翻譯模型。
    的頭像 發(fā)表于 09-23 15:34 ?1119次閱讀

    【Sipeed MaixCAM Pro開發(fā)板試用體驗(yàn)】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    圖像的快速鑒別,滿足實(shí)時(shí)或準(zhǔn)實(shí)時(shí)的應(yīng)用需求。 3. 數(shù)據(jù)采集 AI圖片數(shù)據(jù),本項(xiàng)目使用gemini生成圖片,使用的是gem來(lái)實(shí)現(xiàn)的。 提示
    發(fā)表于 08-21 13:59

    【Sipeed MaixCAM Pro開發(fā)板試用體驗(yàn)】 + 04 + 機(jī)器學(xué)習(xí)YOLO體驗(yàn)

    、 機(jī)器學(xué)習(xí)YOLO體驗(yàn) 1.在線訓(xùn)練 Sipeed矽速科技擁有自研搭建的MaixHub平臺(tái),可以快速簡(jiǎn)單的完成yolo訓(xùn)練。 下面我將展示訓(xùn)練拍攝標(biāo)注和
    發(fā)表于 07-24 21:35

    訓(xùn)練平臺(tái)數(shù)據(jù)過(guò)大無(wú)法下載數(shù)據(jù)至本地怎么解決?

    起因是現(xiàn)在平臺(tái)限制了圖片數(shù)量,想要本地訓(xùn)練下載數(shù)據(jù)時(shí)發(fā)現(xiàn)只會(huì)跳出網(wǎng)絡(luò)異常的錯(cuò)誤,請(qǐng)問(wèn)這有什么解決辦法?
    發(fā)表于 07-22 06:03

    【Sipeed MaixCAM Pro開發(fā)板試用體驗(yàn)】+ 02 + 基礎(chǔ)功能測(cè)試

    直接安裝使用,同時(shí)擁有在線訓(xùn)練YOLO大模型的平臺(tái),可以一體化的完成數(shù)據(jù)的采集標(biāo)注訓(xùn)練和導(dǎo)出權(quán)重文件并部署到Maixcam Pro上,同時(shí)
    發(fā)表于 07-19 22:50

    基于LockAI視覺識(shí)別模塊:C++人臉識(shí)別

    本文基于RV1106做成的LockAI視覺識(shí)別模塊,采用 LZ-Picodet 模型訓(xùn)練人臉檢測(cè)模型 LZ-Face,以及ArcFace人臉
    發(fā)表于 07-01 12:01

    基于LockAI視覺識(shí)別模塊:C++人臉識(shí)別

    本文基于RV1106做成的LockAI視覺識(shí)別模塊,采用LZ-Picodet模型訓(xùn)練人臉檢測(cè)模型LZ-Face,以及ArcFace人臉識(shí)別
    的頭像 發(fā)表于 07-01 10:09 ?1045次閱讀
    基于LockAI視覺識(shí)別模塊:C++<b class='flag-5'>人臉</b>識(shí)別

    數(shù)據(jù)下載失敗的原因?

    數(shù)據(jù)下載失敗什么原因太大了嗎,小的可以下載,想把大的下載去本地訓(xùn)練報(bào)錯(cuò)網(wǎng)絡(luò)錯(cuò)誤 大的數(shù)據(jù)多大?數(shù)據(jù)
    發(fā)表于 06-18 07:04

    瑞芯微模型量化文件構(gòu)建

    模型是一張圖片輸入時(shí),量化文件如上圖所示。但是我現(xiàn)在想量化deepprivacy人臉匿名模型,他的輸入是四個(gè)輸入。該模型訓(xùn)練時(shí)
    發(fā)表于 06-13 09:07

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級(jí)AI攝像機(jī),進(jìn)行AI識(shí)別應(yīng)用。 AI訓(xùn)練模型是不斷迭
    發(fā)表于 04-28 11:11