chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用TensorFlow決策森林創(chuàng)建提升樹模型

谷歌開發(fā)者 ? 來源:TensorFlow ? 作者:TensorFlow ? 2022-04-19 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

發(fā)布人:TensorFlow 團(tuán)隊(duì)的 Mathieu Guillame-Bert 和 Josh Gordon

隨機(jī)森林和梯度提升樹這類的決策森林模型通常是處理表格數(shù)據(jù)最有效的可用工具。與神經(jīng)網(wǎng)絡(luò)相比,決策森林具有更多優(yōu)勢,如配置過程更輕松、訓(xùn)練速度更快等。使用樹可大幅減少準(zhǔn)備數(shù)據(jù)集所需的代碼量,因?yàn)檫@些樹本身就可以處理數(shù)字、分類和缺失的特征。此外,這些樹通常還可提供開箱即用的良好結(jié)果,并具有可解釋的屬性。

盡管我們通常將 TensorFlow 視為訓(xùn)練神經(jīng)網(wǎng)絡(luò)的內(nèi)容庫,但 Google 的一個(gè)常見用例是使用 TensorFlow 創(chuàng)建決策森林。

08660ec6-bf00-11ec-9e50-dac502259ad0.gif

對數(shù)據(jù)開展分類的決策樹動(dòng)畫

如果您曾使用 2019 年推出tf.estimator.BoostedTrees 創(chuàng)建基于樹的模型,您可參考本文所提供的指南進(jìn)行遷移。雖然 Estimator API 基本可以應(yīng)對在生產(chǎn)環(huán)境中使用模型的復(fù)雜性,包括分布式訓(xùn)練和序列化,但是我們不建議您將其用于新代碼。

如果您要開始一個(gè)新項(xiàng)目,我們建議您使用 TensorFlow 決策森林 (TF-DF)。該內(nèi)容庫可為訓(xùn)練、服務(wù)和解讀決策森林模型提供最先進(jìn)的算法,相較于先前的方法更具優(yōu)勢,特別是在質(zhì)量、速度和易用性方面表現(xiàn)尤為出色。

首先,讓我們來比較一下使用 Estimator API 和 TF-DF 創(chuàng)建提升樹模型的等效示例。

以下是使用 tf.estimator.BoostedTrees 訓(xùn)練梯度提升樹模型的舊方法(不再推薦使用)

import tensorflow as tf

# Dataset generators
def make_dataset_fn(dataset_path):
    def make_dataset():
        data = ... # read dataset
        return tf.data.Dataset.from_tensor_slices(...data...).repeat(10).batch(64)
    return make_dataset

# List the possible values for the feature "f_2".
f_2_dictionary = ["NA", "red", "blue", "green"]

# The feature columns define the input features of the model.
feature_columns = [
    tf.feature_column.numeric_column("f_1"),
    tf.feature_column.indicator_column(
       tf.feature_column.categorical_column_with_vocabulary_list("f_2",
         f_2_dictionary,
         # A special value "missing" is used to represent missing values.
         default_value=0)
       ),
    ]

# Configure the estimator
estimator = boosted_trees.BoostedTreesClassifier(
          n_trees=1000,
          feature_columns=feature_columns,
          n_classes=3,
          # Rule of thumb proposed in the BoostedTreesClassifier documentation.
          n_batches_per_layer=max(2, int(len(train_df) / 2 / FLAGS.batch_size)),
      )

# Stop the training is the validation loss stop decreasing.
early_stopping_hook = early_stopping.stop_if_no_decrease_hook(
      estimator,
      metric_name="loss",
      max_steps_without_decrease=100,
      min_steps=50)

tf.estimator.train_and_evaluate(
      estimator,
      train_spec=tf.estimator.TrainSpec(
          make_dataset_fn(train_path),
          hooks=[
              # Early stopping needs a CheckpointSaverHook.
              tf.train.CheckpointSaverHook(
                  checkpoint_dir=input_config.raw.temp_dir, save_steps=500),
              early_stopping_hook,
          ]),
      eval_spec=tf.estimator.EvalSpec(make_dataset_fn(valid_path)))

使用 TensorFlow 決策森林訓(xùn)練相同的模型

import tensorflow_decision_forests as tfdf

# Load the datasets
# This code is similar to the estimator.
def make_dataset(dataset_path):
    data = ... # read dataset
    return tf.data.Dataset.from_tensor_slices(...data...).batch(64)

train_dataset = make_dataset(train_path)
valid_dataset = make_dataset(valid_path)

# List the input features of the model.
features = [
  tfdf.keras.FeatureUsage("f_1", keras.FeatureSemantic.NUMERICAL),
  tfdf.keras.FeatureUsage("f_2", keras.FeatureSemantic.CATEGORICAL),
]

model = tfdf.keras.GradientBoostedTreesModel(
  task = tfdf.keras.Task.CLASSIFICATION,
  num_trees=1000,
  features=features,
  exclude_non_specified_features=True)

model.fit(train_dataset, valid_dataset)

# Export the model to a SavedModel.
model.save("project/model")

附注

  • 雖然在此示例中沒有明確說明,但 TensorFlow 決策森林可自動(dòng)啟用和配置早停。

  • 可自動(dòng)構(gòu)建和優(yōu)化“f_2”特征字典(例如,將稀有值合并到一個(gè)未登錄詞項(xiàng)目中)。

  • 可從數(shù)據(jù)集中自動(dòng)確定類別數(shù)(本例中為 3 個(gè))。

  • 批次大?。ū纠袨?64)對模型訓(xùn)練沒有影響。以較大值為宜,因?yàn)檫@可以增加讀取數(shù)據(jù)集的效率。

TF-DF 的亮點(diǎn)就在于簡單易用,我們還可進(jìn)一步簡化和完善上述示例,如下所示。

如何訓(xùn)練 TensorFlow 決策森林(推薦解決方案)

import tensorflow_decision_forests as tfdf
import pandas as pd

# Pandas dataset can be used easily with pd_dataframe_to_tf_dataset.
train_df = pd.read_csv("project/train.csv")

# Convert the Pandas dataframe into a TensorFlow dataset.
train_ds = tfdf.keras.pd_dataframe_to_tf_dataset(train_df, label="my_label")

model = tfdf.keras.GradientBoostedTreeModel(num_trees=1000)
model.fit(train_dataset)

附注

  • 我們未指定特征的語義(例如數(shù)字或分類)。在這種情況下,系統(tǒng)將自動(dòng)推斷語義。

  • 我們也沒有列出要使用的輸入特征。在這種情況下,系統(tǒng)將使用所有列(標(biāo)簽除外)??稍谟?xùn)練日志中查看輸入特征的列表和語義,或通過模型檢查器 API 查看。

  • 我們沒有指定任何驗(yàn)證數(shù)據(jù)集。每個(gè)算法都可以從訓(xùn)練樣本中提取一個(gè)驗(yàn)證數(shù)據(jù)集作為算法的最佳選擇。例如,默認(rèn)情況下,如果未提供驗(yàn)證數(shù)據(jù)集,則 GradientBoostedTreeModel 將使用 10% 的訓(xùn)練數(shù)據(jù)進(jìn)行驗(yàn)證。

下面我們將介紹 Estimator API 和 TF-DF 的一些區(qū)別。

Estimator API 和 TF-DF 的區(qū)別

算法類型

TF-DF 是決策森林算法的集合,包括(但不限于)Estimator API 提供的梯度提升樹。請注意,TF-DF 還支持隨機(jī)森林(非常適用于干擾數(shù)據(jù)集)和 CART 實(shí)現(xiàn)(非常適用于解讀模型)。

此外,對于每個(gè)算法,TF-DF 都包含許多在文獻(xiàn)資料中發(fā)現(xiàn)并經(jīng)過實(shí)驗(yàn)驗(yàn)證的變體 [1, 2, 3]。

精確與近似分塊的對比

TF1 GBT Estimator 是一種近似的樹學(xué)習(xí)算法。非正式情況下,Estimator 通過僅考慮樣本的隨機(jī)子集和每個(gè)步驟條件的隨機(jī)子集來構(gòu)建。

默認(rèn)情況下,TF-DF 是一種精確的樹訓(xùn)練算法。非正式情況下,TF-DF 會(huì)考慮所有訓(xùn)練樣本和每個(gè)步驟的所有可能分塊。這是一種更常見且通常表現(xiàn)更佳的解決方案。

雖然對于較大的數(shù)據(jù)集(具有百億數(shù)量級以上的“樣本和特征”數(shù)組)而言,有時(shí) Estimator 的速度更快,但其近似值通常不太準(zhǔn)確(因?yàn)樾枰N植更多樹才能達(dá)到相同的質(zhì)量)。而對于小型數(shù)據(jù)集(所含的“樣本和特征”數(shù)組數(shù)目不足一億)而言,使用 Estimator 實(shí)現(xiàn)近似訓(xùn)練形式的速度甚至可能比精確訓(xùn)練更慢。

TF-DF 還支持不同類型的“近似”樹訓(xùn)練。我們建議您使用精確訓(xùn)練法,并選擇使用大型數(shù)據(jù)集測試近似訓(xùn)練。

推理

Estimator 使用自上而下的樹路由算法運(yùn)行模型推理。TF-DF 使用 QuickScorer 算法的擴(kuò)展程序。

雖然兩種算法返回的結(jié)果完全相同,但自上而下的算法效率較低,因?yàn)檫@種算法的計(jì)算量會(huì)超出分支預(yù)測并導(dǎo)致緩存未命中。對于同一模型,TF-DF 的推理速度通??商嵘?10 倍。

TF-DF 可為延遲關(guān)鍵應(yīng)用程序提供 C++ API。其推理時(shí)間約為每核心每樣本 1 微秒。與 TF SavedModel 推理相比,這通??蓪⑺俣忍嵘?50 至 1000 倍(對小型批次的效果更佳)。

多頭模型

Estimator 支持多頭模型(即輸出多種預(yù)測的模型)。目前,TF-DF 無法直接支持多頭模型,但是借助 Keras Functional API,TF-DF 可以將多個(gè)并行訓(xùn)練的 TF-DF 模型組成一個(gè)多頭模型。

了解詳情

您可以訪問此網(wǎng)址,詳細(xì)了解 TensorFlow 決策森林。

如果您是首次接觸該內(nèi)容庫,我們建議您從初學(xué)者示例開始。經(jīng)驗(yàn)豐富的 TensorFlow 用戶可以訪問此指南,詳細(xì)了解有關(guān)在 TensorFlow 中使用決策森林和神經(jīng)網(wǎng)絡(luò)的區(qū)別要點(diǎn),包括如何配置訓(xùn)練流水線和關(guān)于數(shù)據(jù)集 I/O 的提示。

您還可以仔細(xì)閱讀Estimator 遷移到 Keras API,了解如何從 Estimator 遷移到 Keras。

原文標(biāo)題:如何從提升樹 Estimator 遷移到 TensorFlow 決策森林

文章出處:【微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1812

    瀏覽量

    60622
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3810

    瀏覽量

    52253
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    336

    瀏覽量

    62364

原文標(biāo)題:如何從提升樹 Estimator 遷移到 TensorFlow 決策森林

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    九天菜菜大模型agent智能體開發(fā)實(shí)戰(zhàn)2026一月班

    、蒙特卡洛搜索等關(guān)鍵技術(shù),將復(fù)雜任務(wù)拆解為可執(zhí)行的子步驟,并根據(jù)實(shí)時(shí)反饋動(dòng)態(tài)調(diào)整策略。工具使用模塊讓 Agent 突破大模型固有局限,能夠調(diào)用搜索引擎、數(shù)據(jù)庫、代碼解釋器等外部工具,實(shí)現(xiàn)現(xiàn)實(shí)世界操作,極大
    發(fā)表于 04-15 16:04

    ??低曂瞥?b class='flag-5'>森林防火多模態(tài)智能研判大模型產(chǎn)品

    海康威視公共服務(wù)行業(yè)軟件特推出森林防火多模態(tài)智能研判大模型產(chǎn)品,依托??低曈^瀾大模型能力,對不同等級的火情分類處理,減少90%的無效告警2 ,讓工作人員告別反復(fù)研判的低效工作。
    的頭像 發(fā)表于 04-14 15:26 ?363次閱讀

    科技,IPO申請獲受理

    ,宇科技本次公開發(fā)行新股不低于4044.64萬股,募集資金計(jì)劃用于智能機(jī)器人模型研發(fā)、機(jī)器人本體研發(fā)、新型智能機(jī)器人產(chǎn)品開發(fā)及智能機(jī)器人制造基地建設(shè)四大項(xiàng)目。 ? ? 宇科技是一家世界知名、國際領(lǐng)先的高性能通用機(jī)器人公司,專
    的頭像 發(fā)表于 03-20 18:33 ?4170次閱讀
    宇<b class='flag-5'>樹</b>科技,IPO申請獲受理

    在 NPU 上運(yùn)行了 eIQ TensorFlow Lite 示例模型報(bào)錯(cuò)

    我們已經(jīng)在 NPU 上運(yùn)行了 eIQ TensorFlow Lite 示例模型,但它們失敗并出現(xiàn)以下錯(cuò)誤: 信息:加載的模型 mobilenet_v1_1.0_224_quant.tflite
    發(fā)表于 03-18 06:52

    使用NORDIC AI的好處

    提升能效,適合音頻、圖像和高采樣率傳感器等更重的 AI 負(fù)載。[Axon NPU 技術(shù)頁] 模型更小、更快、更省電 Neuton 模型相較 TensorFlow Lite:* 內(nèi)存
    發(fā)表于 01-31 23:16

    Raythink燧石熱像儀精準(zhǔn)監(jiān)測,賦能森林防火智能升級!

    森林草原防滅火條例》自2026年1月1日起正式實(shí)施,其中“預(yù)防為主”被明確列為工作方針,并在第九條明確鼓勵(lì)科技創(chuàng)新與先進(jìn)裝備研發(fā)應(yīng)用,旨在提升監(jiān)測預(yù)警的科技化、標(biāo)準(zhǔn)化水平。在這一政策背景下,技術(shù)
    的頭像 發(fā)表于 01-30 11:58 ?600次閱讀
    Raythink燧石熱像儀精準(zhǔn)監(jiān)測,賦能<b class='flag-5'>森林</b>防火智能升級!

    五大衛(wèi)星運(yùn)管中心大模型智能決策分系統(tǒng)軟件的應(yīng)用與未來發(fā)展

    ? ? 五大機(jī)構(gòu)/企業(yè)衛(wèi)星運(yùn)管中心大模型智能決策分系統(tǒng)實(shí)踐綜述 ? ?當(dāng)前,隨著大規(guī)模星座部署與智能化作戰(zhàn)需求激增,以大模型驅(qū)動(dòng)的衛(wèi)星智能決策系統(tǒng)成為全球航天強(qiáng)國和頭部企業(yè)的戰(zhàn)略焦點(diǎn)。
    的頭像 發(fā)表于 12-18 14:58 ?482次閱讀

    永銘超級電容SLM系列賦能森林防火監(jiān)控系統(tǒng),凸顯關(guān)鍵電容優(yōu)勢

    DESIGNER'SDREAM森林防火監(jiān)控系統(tǒng)的市場前景01隨著氣候變化導(dǎo)致全球范圍內(nèi)極端天氣增多,各國政府和相關(guān)部門對森林防火工作的重視程度不斷提升,對高效、智能化的森林
    的頭像 發(fā)表于 09-01 10:08 ?682次閱讀
    永銘超級電容SLM系列賦能<b class='flag-5'>森林</b>防火監(jiān)控系統(tǒng),凸顯關(guān)鍵電容優(yōu)勢

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    如果你關(guān)注最新進(jìn)展,可能已經(jīng)知道 Nordic Semiconductor 收購了 Neuton.AI。 Neuton 是一家邊緣 AI 公司,致力于使機(jī)器學(xué)習(xí)模型更易于訪問。它創(chuàng)建模型比競爭對手
    發(fā)表于 08-31 20:54

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文中,我們將介紹
    發(fā)表于 07-31 11:38

    晶圓切割深度動(dòng)態(tài)補(bǔ)償?shù)闹悄?b class='flag-5'>決策模型與 TTV 預(yù)測控制

    摘要:本文針對超薄晶圓切割過程中 TTV 均勻性控制難題,研究晶圓切割深度動(dòng)態(tài)補(bǔ)償?shù)闹悄?b class='flag-5'>決策模型與 TTV 預(yù)測控制方法。分析影響切割深度與 TTV 的關(guān)鍵因素,闡述智能決策模型的構(gòu)建
    的頭像 發(fā)表于 07-23 09:54 ?676次閱讀
    晶圓切割深度動(dòng)態(tài)補(bǔ)償?shù)闹悄?b class='flag-5'>決策</b><b class='flag-5'>模型</b>與 TTV 預(yù)測控制

    從火場到指揮部:云翎智能如何用無線自組網(wǎng)縮短森林救援響應(yīng)時(shí)間

    森林火災(zāi)救援中,通信中斷與延遲常導(dǎo)致決策滯后。云翎智能通過無線自組網(wǎng)(MESH)技術(shù),構(gòu)建無中心動(dòng)態(tài)網(wǎng)絡(luò),支持多跳中繼與自愈合,在復(fù)雜地形中實(shí)現(xiàn)火場與指揮部的實(shí)時(shí)通信。該技術(shù)具備抗干擾、穿透力強(qiáng)
    的頭像 發(fā)表于 07-17 20:55 ?734次閱讀
    從火場到指揮部:云翎智能如何用無線自組網(wǎng)縮短<b class='flag-5'>森林</b>救援響應(yīng)時(shí)間

    構(gòu)建生命線:云翎智能應(yīng)急通信自組網(wǎng)如何為森林防火贏得黃金救援時(shí)間

    森林火災(zāi)的黃金救援時(shí)間以分鐘計(jì),傳統(tǒng)通信常因地形復(fù)雜、公網(wǎng)薄弱導(dǎo)致失聯(lián)。云翎智能應(yīng)急通信自組網(wǎng)以無中心自組網(wǎng)技術(shù)實(shí)現(xiàn)3分鐘快速建網(wǎng),通過寬窄帶融合傳輸火場動(dòng)態(tài),結(jié)合北斗短報(bào)文補(bǔ)盲,讓指揮中心秒級決策
    的頭像 發(fā)表于 07-14 22:04 ?684次閱讀
    構(gòu)建生命線:云翎智能應(yīng)急通信自組網(wǎng)如何為<b class='flag-5'>森林</b>防火贏得黃金救援時(shí)間

    無法將Tensorflow Lite模型轉(zhuǎn)換為OpenVINO?格式怎么處理?

    Tensorflow Lite 模型轉(zhuǎn)換為 OpenVINO? 格式。 遇到的錯(cuò)誤: FrontEnd API failed with OpConversionFailure:No translator found for TFLite_Detection_PostP
    發(fā)表于 06-25 08:27

    地物光譜儀+林地調(diào)查,精準(zhǔn)掌握森林生長與病變數(shù)據(jù)

    高光譜遙感的核心地面工具,正在與林地調(diào)查深度融合,為森林監(jiān)測提供第一手的高精度數(shù)據(jù)支持。 一、森林調(diào)查為何需要地物光譜儀 傳統(tǒng)森林調(diào)查方法依賴于人工測量,如高、胸徑、物種識別和樣方調(diào)
    的頭像 發(fā)表于 05-23 15:00 ?1024次閱讀
    地物光譜儀+林地調(diào)查,精準(zhǔn)掌握<b class='flag-5'>森林</b>生長與病變數(shù)據(jù)