PReLU
類別tf_keras.layers.PReLU(
alpha_initializer="zeros",
alpha_regularizer=None,
alpha_constraint=None,
shared_axes=None,
**kwargs
)
參數化修正線性單元。
其遵循公式
f(x) = alpha * x for x < 0
f(x) = x for x >= 0
其中 alpha
是一個與 x 具有相同形狀的可學習陣列。
輸入形狀
任意形狀。當將此層作為模型中的第一層使用時,請使用關鍵字引數 input_shape
(整數元組,不包含樣本軸)。
輸出形狀
與輸入相同的形狀。
引數
(batch, height, width, channels)
的 2D 卷積,並且您希望跨空間共享參數,以便每個濾波器只有一組參數,請設定 shared_axes=[1, 2]
。