KerasHub:預訓練模型 / API 文件 / 模型架構 / MiT / MiTImageConverter

MiTImageConverter

[source]

MiTImageConverter 類別

keras_hub.layers.MiTImageConverter(
    image_size=None,
    scale=None,
    offset=None,
    crop_to_aspect_ratio=True,
    pad_to_aspect_ratio=False,
    interpolation="bilinear",
    bounding_box_format="yxyx",
    data_format=None,
    **kwargs
)

將原始圖片預處理為模型可用的輸入。

此類別將原始圖片轉換為模型可用的輸入。此轉換按以下步驟進行

  1. 使用 image_size 調整圖片大小。如果 image_sizeNone,則會跳過此步驟。
  2. 透過乘以 scale 來重新調整圖片比例,scale 可以是全域或按通道。如果 scaleNone,則會跳過此步驟。
  3. 透過加入 offset 來偏移圖片,offset 可以是全域或按通道。如果 offsetNone,則會跳過此步驟。

此層將接收通道最後或通道優先格式的原始圖片張量作為輸入,並輸出用於建模的預處理圖片輸入。此張量可以是批次的(rank 4)或非批次的(rank 3)。

此層可以與 from_preset() 建構子一起使用,以載入將為特定預訓練模型重新調整大小和調整比例的層。以這種方式使用此層,可以在切換模型檢查點時,無需更新預處理程式碼。

引數

  • image_size(int, int) 元組或 None。圖片的輸出大小,不包括通道軸。如果為 None,則不會調整輸入大小。
  • scale:浮點數、浮點數元組或 None。要應用於輸入的比例。如果 scale 是單個浮點數,則整個輸入將乘以 scale。如果 scale 是一個元組,則假定它包含針對輸入圖片的每個通道相乘的每通道比例值。如果 scaleNone,則不應用縮放。
  • offset:浮點數、浮點數元組或 None。要應用於輸入的偏移量。如果 offset 是單個浮點數,則整個輸入將與 offset 相加。如果 offset 是一個元組,則假定它包含針對輸入圖片的每個通道相加的每通道偏移值。如果 offsetNone,則不應用縮放。
  • crop_to_aspect_ratio:如果為 True,則在不失真長寬比的情況下調整圖片大小。當原始長寬比與目標長寬比不同時,輸出圖片將被裁剪,以便傳回圖片中與目標長寬比匹配的最大可能視窗(大小為 (height, width))。預設情況下(crop_to_aspect_ratio=False),長寬比可能無法保留。
  • interpolation:字串,插值方法。支援 "bilinear""nearest""bicubic""lanczos3""lanczos5"。預設為 "bilinear"
  • bounding_box_format:一個字串,指定邊界框的格式,可以是 "xyxy""rel_xyxy""xywh""center_xywh""yxyx""rel_yxyx" 之一。指定邊界框的格式,邊界框將與圖片一起調整為 image_size。要將邊界框傳遞到此層,請在呼叫該層時傳遞一個帶有鍵 "images""bounding_boxes" 的字典。
  • data_format:字串,可以是 "channels_last""channels_first"。輸入中維度的順序。"channels_last" 對應於形狀為 (batch, height, width, channels) 的輸入,而 "channels_first" 對應於形狀為 (batch, channels, height, width) 的輸入。它預設為在您的 Keras 設定檔 ~/.keras/keras.json 中找到的 image_data_format 值。如果您從未設定它,則它將為 "channels_last"

範例

# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
    image_size=(128, 128),
    scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

[source]

from_preset 方法

MiTImageConverter.from_preset(preset, **kwargs)

從模型預設實例化 keras_hub.layers.ImageConverter

預設是配置、權重和其他檔案資產的目錄,用於儲存和載入預訓練模型。 preset 可以作為以下其中之一傳遞

  1. 內建預設識別符,例如 'pali_gemma_3b_224'
  2. Kaggle Models 句柄,例如 'kaggle://user/paligemma/keras/pali_gemma_3b_224'
  3. Hugging Face 句柄,例如 'hf://user/pali_gemma_3b_224'
  4. 本機預設目錄的路徑,例如 './pali_gemma_3b_224'

您可以執行 cls.presets.keys() 以列出類別上所有可用的內建預設。

引數

  • preset:字串。內建預設識別符、Kaggle Models 句柄、Hugging Face 句柄或本機目錄的路徑。
  • load_weights:布林值。如果為 True,權重將載入到模型架構中。如果為 False,權重將隨機初始化。

範例

batch = np.random.randint(0, 256, size=(2, 512, 512, 3))

# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)

# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_448",
    crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
預設 參數 描述
mit_b0_ade20k_512 3.32M 具有 8 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b0_cityscapes_1024 3.32M 具有 8 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b1_ade20k_512 13.16M 具有 8 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b1_cityscapes_1024 13.16M 具有 8 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b2_ade20k_512 24.20M 具有 16 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b2_cityscapes_1024 24.20M 具有 16 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b3_ade20k_512 44.08M 具有 28 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b3_cityscapes_1024 44.08M 具有 28 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b4_ade20k_512 60.85M 具有 41 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b4_cityscapes_1024 60.85M 具有 41 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b5_ade20k_640 81.45M 具有 52 個 Transformer 區塊的 MiT (MixTransformer) 模型。
mit_b5_cityscapes_1024 81.45M 具有 52 個 Transformer 區塊的 MiT (MixTransformer) 模型。