PReLU
類別keras.layers.PReLU(
alpha_initializer="Zeros",
alpha_regularizer=None,
alpha_constraint=None,
shared_axes=None,
**kwargs
)
參數化線性整流單元激活層。
公式
f(x) = alpha * x for x < 0
f(x) = x for x >= 0
其中 alpha
是一個與 x 形狀相同的學習陣列。
引數
(batch, height, width, channels)
的 2D 卷積,並且您希望跨空間共享參數,以便每個濾波器只有一組參數,請設定 shared_axes=[1, 2]
。name
和 dtype
。