Keras 2 API 文件 / 層 API / 激活層 / 閾值 ReLU 層

閾值 ReLU 層

[原始碼]

ThresholdedReLU 類別

tf_keras.layers.ThresholdedReLU(theta=1.0, **kwargs)

閾值修正線性單元 (Thresholded Rectified Linear Unit)。

遵循以下公式:

    f(x) = x for x > theta
    f(x) = 0 otherwise`

輸入形狀

任意形狀。當此層作為模型的第一層時,請使用關鍵字參數 input_shape(整數的元組,不包含樣本軸)。

輸出形狀

與輸入形狀相同。

參數

  • theta:浮點數 >= 0。激活的閾值位置。