Keras 3 API 文件 / 層 API / 激活層 / PReLU 層

PReLU 層

[來源]

PReLU 類別

keras.layers.PReLU(
    alpha_initializer="Zeros",
    alpha_regularizer=None,
    alpha_constraint=None,
    shared_axes=None,
    **kwargs
)

參數化線性整流單元激活層。

公式

f(x) = alpha * x for x < 0
f(x) = x for x >= 0

其中 alpha 是一個與 x 形狀相同的學習陣列。

引數

  • alpha_initializer: 權重的初始化器函數。
  • alpha_regularizer: 權重的正規化器。
  • alpha_constraint: 權重的約束。
  • shared_axes: 用於共享激活函數的可學習參數的軸。例如,如果輸入特徵圖來自輸出形狀為 (batch, height, width, channels) 的 2D 卷積,並且您希望跨空間共享參數,以便每個濾波器只有一組參數,請設定 shared_axes=[1, 2]
  • **kwargs: 基礎層關鍵字引數,例如 namedtype