Keras 2 API 文件 / 層 API / 啟動層 / PReLU 層

PReLU 層

[原始碼]

PReLU 類別

tf_keras.layers.PReLU(
    alpha_initializer="zeros",
    alpha_regularizer=None,
    alpha_constraint=None,
    shared_axes=None,
    **kwargs
)

參數化修正線性單元。

其遵循公式

    f(x) = alpha * x for x < 0
    f(x) = x for x >= 0

其中 alpha 是一個與 x 具有相同形狀的可學習陣列。

輸入形狀

任意形狀。當將此層作為模型中的第一層使用時,請使用關鍵字引數 input_shape(整數元組,不包含樣本軸)。

輸出形狀

與輸入相同的形狀。

引數

  • alpha_initializer:權重的初始化函數。
  • alpha_regularizer:權重的正規化器。
  • alpha_constraint:權重的約束。
  • shared_axes:沿著哪些軸共享啟動函數的可學習參數。例如,如果輸入的特徵圖來自輸出形狀為 (batch, height, width, channels) 的 2D 卷積,並且您希望跨空間共享參數,以便每個濾波器只有一組參數,請設定 shared_axes=[1, 2]