KerasHub:預訓練模型 / API 文件 / 模型架構 / DenseNet / DenseNet影像轉換器

DenseNet影像轉換器

[原始碼]

DenseNetImageConverter 類別

keras_hub.layers.DenseNetImageConverter(
    image_size=None,
    scale=None,
    offset=None,
    crop_to_aspect_ratio=True,
    pad_to_aspect_ratio=False,
    interpolation="bilinear",
    bounding_box_format="yxyx",
    data_format=None,
    **kwargs
)

將原始影像預處理成模型可用的輸入。

此類別將原始影像轉換為模型可用的輸入。此轉換按以下步驟進行

  1. 使用 image_size 調整影像大小。如果 image_sizeNone,則會跳過此步驟。
  2. 通過乘以 scale 來重新調整影像比例,scale 可以是全域或逐通道的。如果 scaleNone,則會跳過此步驟。
  3. 通過加上 offset 來偏移影像,offset 可以是全域或逐通道的。如果 offsetNone,則會跳過此步驟。

此層將接收通道在後或通道在先格式的原始影像張量作為輸入,並輸出用於建模的預處理影像輸入。此張量可以是批次的(rank 4)或非批次的(rank 3)。

此層可以與 from_preset() 建構子一起使用,以載入將為特定預訓練模型重新調整大小和比例的層。以這種方式使用此層,可以編寫在模型檢查點之間切換時無需更新的預處理程式碼。

參數

  • image_size(int, int) 元組或 None。影像的輸出大小,不包含通道軸。如果為 None,則不會調整輸入大小。
  • scale:float、float 元組或 None。要應用於輸入的比例。如果 scale 是單個 float,則整個輸入將乘以 scale。如果 scale 是元組,則假定它包含針對輸入影像的每個通道相乘的逐通道比例值。如果 scaleNone,則不應用縮放。
  • offset:float、float 元組或 None。要應用於輸入的偏移量。如果 offset 是單個 float,則整個輸入將與 offset 相加。如果 offset 是元組,則假定它包含針對輸入影像的每個通道相加的逐通道偏移值。如果 offsetNone,則不應用縮放。
  • crop_to_aspect_ratio:如果為 True,則在不失真長寬比的情況下調整影像大小。當原始長寬比與目標長寬比不同時,輸出影像將被裁剪,以便在影像中返回與目標長寬比匹配的最大可能視窗(大小為 (height, width))。預設情況下(crop_to_aspect_ratio=False),長寬比可能不會保留。
  • interpolation:字串,插值方法。支援 "bilinear""nearest""bicubic""lanczos3""lanczos5"。預設為 "bilinear"
  • bounding_box_format:一個字串,指定邊界框的格式,可以是 "xyxy""rel_xyxy""xywh""center_xywh""yxyx""rel_yxyx" 之一。指定邊界框的格式,這些邊界框將與影像一起調整大小為 image_size。要將邊界框傳遞到此層,請在呼叫該層時傳遞一個帶有鍵 "images""bounding_boxes" 的字典。
  • data_format:字串,可以是 "channels_last""channels_first"。輸入中維度的順序。"channels_last" 對應於形狀為 (batch, height, width, channels) 的輸入,而 "channels_first" 對應於形狀為 (batch, channels, height, width) 的輸入。它預設為在您的 Keras 設定檔 ~/.keras/keras.json 中找到的 image_data_format 值。如果您從未設定它,則它將為 "channels_last"

範例

# Resize raw images and scale them to [0, 1].
converter = keras_hub.layers.ImageConverter(
    image_size=(128, 128),
    scale=1. / 255,
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

# Resize images to the specific size needed for a PaliGemma preset.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(np.random.randint(0, 256, size=(2, 512, 512, 3)))

[原始碼]

from_preset 方法

DenseNetImageConverter.from_preset(preset, **kwargs)

從模型預設實例化 keras_hub.layers.ImageConverter

預設是一個設定檔、權重和其他檔案資源的目錄,用於儲存和載入預訓練模型。preset 可以作為以下之一傳遞

  1. 內建預設識別符,例如 'pali_gemma_3b_224'
  2. Kaggle 模型句柄,例如 'kaggle://user/paligemma/keras/pali_gemma_3b_224'
  3. Hugging Face 模型句柄,例如 'hf://user/pali_gemma_3b_224'
  4. 本機預設目錄的路徑,例如 './pali_gemma_3b_224'

您可以執行 cls.presets.keys() 來列出類別上所有可用的內建預設。

參數

  • preset:字串。內建預設識別符、Kaggle 模型句柄、Hugging Face 模型句柄或本機目錄的路徑。
  • load_weights:bool。如果為 True,權重將被載入到模型架構中。如果為 False,權重將被隨機初始化。

範例

batch = np.random.randint(0, 256, size=(2, 512, 512, 3))

# Resize images for `"pali_gemma_3b_224"`.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_224"
)
converter(batch) # # Output shape (2, 224, 224, 3)

# Resize images for `"pali_gemma_3b_448"` without cropping.
converter = keras_hub.layers.ImageConverter.from_preset(
    "pali_gemma_3b_448",
    crop_to_aspect_ratio=False,
)
converter(batch) # # Output shape (2, 448, 448, 3)
預設 參數 描述
densenet_121_imagenet 7.04M 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 121 層 DenseNet 模型。
densenet_169_imagenet 12.64M 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 169 層 DenseNet 模型。
densenet_201_imagenet 18.32M 在 ImageNet 1k 資料集上以 224x224 解析度預訓練的 201 層 DenseNet 模型。