ImageClassifierPreprocessor
類別keras_hub.models.ImageClassifierPreprocessor(image_converter=None, **kwargs)
用於圖像分類預處理層的基础類別。
ImageClassifierPreprocessor
任務封裝了 keras_hub.layers.ImageConverter
,以創建用於圖像分類任務的預處理層。它旨在與 keras_hub.models.ImageClassifier
任務配對使用。
所有 ImageClassifierPreprocessor
都接受三個輸入:x
、y
和 sample_weight
。第一個輸入 x
應始終包含。它可以是圖像或一批圖像。請參閱以下範例。y
和 sample_weight
是可選輸入,將不經修改地傳遞。通常,y
將是分類標籤,而 sample_weight
將不提供。
此層將輸出 x
,如果提供了標籤,則輸出 (x, y)
元組;如果提供了標籤和樣本權重,則輸出 (x, y, sample_weight)
元組。x
將是應用所有模型預處理後的輸入圖像。
所有 ImageClassifierPreprocessor
任務都包含一個 from_preset()
建構函式,可用於載入預訓練的設定檔和詞彙表。您可以直接在此基礎類別上呼叫 from_preset()
建構函式,在這種情況下,將自動實例化適合您模型的正確類別。
範例。
preprocessor = keras_hub.models.ImageClassifierPreprocessor.from_preset(
"resnet_50",
)
# Resize a single image for resnet 50.
x = np.random.randint(0, 256, (512, 512, 3))
x = preprocessor(x)
# Resize a labeled image.
x, y = np.random.randint(0, 256, (512, 512, 3)), 1
x, y = preprocessor(x, y)
# Resize a batch of labeled images.
x, y = [
np.random.randint(0, 256, (512, 512, 3)),
np.zeros((512, 512, 3))
], [1, 0]
x, y = preprocessor(x, y)
# Use a [`tf.data.Dataset`](https://tensorflow.dev.org.tw/api_docs/python/tf/data/Dataset).
ds = tf.data.Dataset.from_tensor_slices((x, y)).batch(2)
ds = ds.map(preprocessor, num_parallel_calls=tf.data.AUTOTUNE)
from_preset
方法ImageClassifierPreprocessor.from_preset(
preset, config_file="preprocessor.json", **kwargs
)
從模型預設實例化 keras_hub.models.Preprocessor
。
預設是一個目錄,其中包含用於儲存和載入預訓練模型的設定檔、權重和其他檔案資產。preset
可以作為以下其中一種傳遞:
'bert_base_en'
'kaggle://user/bert/keras/bert_base_en'
'hf://user/bert_base_en'
'./bert_base_en'
對於任何 Preprocessor
子類別,您可以執行 cls.presets.keys()
以列出此類別上可用的所有內建預設。
由於給定模型通常有多個預處理類別,因此應在特定子類別(例如 keras_hub.models.BertTextClassifierPreprocessor.from_preset()
)上呼叫此方法。
引數
範例
# Load a preprocessor for Gemma generation.
preprocessor = keras_hub.models.CausalLMPreprocessor.from_preset(
"gemma_2b_en",
)
# Load a preprocessor for Bert classification.
preprocessor = keras_hub.models.TextClassifierPreprocessor.from_preset(
"bert_base_en",
)
預設 | 參數 | 描述 |
---|---|---|
densenet_121_imagenet | 7.04M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 121 層 DenseNet 模型。 |
densenet_169_imagenet | 12.64M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 169 層 DenseNet 模型。 |
densenet_201_imagenet | 18.32M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 201 層 DenseNet 模型。 |
efficientnet_lite0_ra_imagenet | 4.65M | 在 ImageNet 1k 資料集上使用 RandAugment 配方微調的 EfficientNet-Lite 模型。 |
efficientnet_b0_ra_imagenet | 5.29M | 在 ImageNet 1k 資料集上使用 RandAugment 配方預訓練的 EfficientNet B0 模型。 |
efficientnet_b0_ra4_e3600_r224_imagenet | 5.29M | Ross Wightman 在 ImageNet 1k 資料集上預訓練的 EfficientNet B0 模型。使用 timm 腳本訓練,其超參數靈感來自 MobileNet-V4 small,並混合了 timm 和「ResNet Strikes Back」的常用超參數。 |
efficientnet_es_ra_imagenet | 5.44M | 在 ImageNet 1k 資料集上使用 RandAugment 配方訓練的 EfficientNet-EdgeTPU Small 模型。 |
efficientnet_em_ra2_imagenet | 6.90M | 在 ImageNet 1k 資料集上使用 RandAugment2 配方訓練的 EfficientNet-EdgeTPU Medium 模型。 |
efficientnet_b1_ft_imagenet | 7.79M | 在 ImageNet 1k 資料集上微調的 EfficientNet B1 模型。 |
efficientnet_b1_ra4_e3600_r240_imagenet | 7.79M | Ross Wightman 在 ImageNet 1k 資料集上預訓練的 EfficientNet B1 模型。使用 timm 腳本訓練,其超參數靈感來自 MobileNet-V4 small,並混合了 timm 和「ResNet Strikes Back」的常用超參數。 |
efficientnet_b2_ra_imagenet | 9.11M | 在 ImageNet 1k 資料集上使用 RandAugment 配方預訓練的 EfficientNet B2 模型。 |
efficientnet_el_ra_imagenet | 10.59M | 在 ImageNet 1k 資料集上使用 RandAugment 配方訓練的 EfficientNet-EdgeTPU Large 模型。 |
efficientnet_b3_ra2_imagenet | 12.23M | 在 ImageNet 1k 資料集上使用 RandAugment2 配方預訓練的 EfficientNet B3 模型。 |
efficientnet2_rw_t_ra2_imagenet | 13.65M | 在 ImageNet 1k 資料集上使用 RandAugment2 配方訓練的 EfficientNet-v2 Tiny 模型。 |
efficientnet_b4_ra2_imagenet | 19.34M | 在 ImageNet 1k 資料集上使用 RandAugment2 配方預訓練的 EfficientNet B4 模型。 |
efficientnet2_rw_s_ra2_imagenet | 23.94M | 在 ImageNet 1k 資料集上使用 RandAugment2 配方訓練的 EfficientNet-v2 Small 模型。 |
efficientnet_b5_sw_imagenet | 30.39M | Ross Wightman 在 ImageNet 12k 資料集上預訓練的 EfficientNet B5 模型。基於 Swin Transformer 訓練/預訓練配方,並進行了修改(與 DeiT 和 ConvNeXt 配方相關)。 |
efficientnet_b5_sw_ft_imagenet | 30.39M | Ross Wightman 在 ImageNet 12k 資料集上預訓練並在 ImageNet-1k 上微調的 EfficientNet B5 模型。基於 Swin Transformer 訓練/預訓練配方,並進行了修改(與 DeiT 和 ConvNeXt 配方相關)。 |
efficientnet2_rw_m_agc_imagenet | 53.24M | 在 ImageNet 1k 資料集上使用自適應梯度裁剪訓練的 EfficientNet-v2 Medium 模型。 |
mit_b0_ade20k_512 | 3.32M | 具有 8 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b0_cityscapes_1024 | 3.32M | 具有 8 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b1_ade20k_512 | 13.16M | 具有 8 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b1_cityscapes_1024 | 13.16M | 具有 8 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b2_ade20k_512 | 24.20M | 具有 16 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b2_cityscapes_1024 | 24.20M | 具有 16 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b3_ade20k_512 | 44.08M | 具有 28 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b3_cityscapes_1024 | 44.08M | 具有 28 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b4_ade20k_512 | 60.85M | 具有 41 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b4_cityscapes_1024 | 60.85M | 具有 41 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b5_ade20k_640 | 81.45M | 具有 52 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mit_b5_cityscapes_1024 | 81.45M | 具有 52 個 Transformer 區塊的 MiT (MixTransformer) 模型。 |
mobilenet_v3_small_050_imagenet | 278.78K | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 Small MobileNet V3 模型。 |
resnet_18_imagenet | 11.19M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 18 層 ResNet 模型。 |
resnet_vd_18_imagenet | 11.72M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 18 層 ResNetVD(具有 bag of tricks 的 ResNet)模型。 |
resnet_vd_34_imagenet | 21.84M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 34 層 ResNetVD(具有 bag of tricks 的 ResNet)模型。 |
resnet_50_imagenet | 23.56M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 50 層 ResNet 模型。 |
resnet_v2_50_imagenet | 23.56M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 50 層 ResNetV2 模型。 |
resnet_vd_50_imagenet | 25.63M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 50 層 ResNetVD(具有 bag of tricks 的 ResNet)模型。 |
resnet_vd_50_ssld_imagenet | 25.63M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 50 層 ResNetVD(具有 bag of tricks 的 ResNet)模型,具有知識蒸餾。 |
resnet_vd_50_ssld_v2_imagenet | 25.63M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 50 層 ResNetVD(具有 bag of tricks 的 ResNet)模型,具有知識蒸餾和 AutoAugment。 |
resnet_vd_50_ssld_v2_fix_imagenet | 25.63M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 50 層 ResNetVD(具有 bag of tricks 的 ResNet)模型,具有知識蒸餾、AutoAugment 和分類頭的額外微調。 |
resnet_101_imagenet | 42.61M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 101 層 ResNet 模型。 |
resnet_v2_101_imagenet | 42.61M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 101 層 ResNetV2 模型。 |
resnet_vd_101_imagenet | 44.67M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 101 層 ResNetVD(具有 bag of tricks 的 ResNet)模型。 |
resnet_vd_101_ssld_imagenet | 44.67M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 101 層 ResNetVD(具有 bag of tricks 的 ResNet)模型,具有知識蒸餾。 |
resnet_152_imagenet | 58.30M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 152 層 ResNet 模型。 |
resnet_vd_152_imagenet | 60.36M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 152 層 ResNetVD(具有 bag of tricks 的 ResNet)模型。 |
resnet_vd_200_imagenet | 74.93M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 200 層 ResNetVD(具有 bag of tricks 的 ResNet)模型。 |
vgg_11_imagenet | 9.22M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 11 層 vgg 模型。 |
vgg_13_imagenet | 9.40M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 13 層 vgg 模型。 |
vgg_16_imagenet | 14.71M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 16 層 vgg 模型。 |
vgg_19_imagenet | 20.02M | 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 19 層 vgg 模型。 |
vit_base_patch16_224_imagenet | 85.80M | 在 ImageNet 1k 資料集上以 224x224 圖像解析度預訓練的 ViT-B16 模型 |
vit_base_patch16_224_imagenet21k | 85.80M | 在 ImageNet 21k 資料集上以 224x224 圖像解析度預訓練的 ViT-B16 主幹 |
vit_base_patch16_384_imagenet | 86.09M | 在 ImageNet 1k 資料集上以 384x384 圖像解析度預訓練的 ViT-B16 模型 |
vit_base_patch32_224_imagenet21k | 87.46M | 在 ImageNet 21k 資料集上以 224x224 圖像解析度預訓練的 ViT-B32 主幹 |
vit_base_patch32_384_imagenet | 87.53M | 在 ImageNet 1k 資料集上以 384x384 圖像解析度預訓練的 ViT-B32 模型 |
vit_large_patch16_224_imagenet | 303.30M | 在 ImageNet 1k 資料集上以 224x224 圖像解析度預訓練的 ViT-L16 模型 |
vit_large_patch16_224_imagenet21k | 303.30M | 在 ImageNet 21k 資料集上以 224x224 圖像解析度預訓練的 ViT-L16 主幹 |
vit_large_patch16_384_imagenet | 303.69M | 在 ImageNet 1k 資料集上以 384x384 圖像解析度預訓練的 ViT-L16 模型 |
vit_large_patch32_224_imagenet21k | 305.51M | 在 ImageNet 21k 資料集上以 224x224 圖像解析度預訓練的 ViT-L32 主幹 |
vit_large_patch32_384_imagenet | 305.61M | 在 ImageNet 1k 資料集上以 384x384 圖像解析度預訓練的 ViT-L32 模型 |
vit_huge_patch14_224_imagenet21k | 630.76M | 在 ImageNet 21k 資料集上以 224x224 圖像解析度預訓練的 ViT-H14 主幹 |
save_to_preset
方法ImageClassifier.save_to_preset(preset_dir)
將任務儲存到預設目錄。
引數