Keras 3 API 文件 / 層 API / 循環層 / LSTM 細胞層

LSTM 細胞層

[原始碼]

LSTMCell 類別

keras.layers.LSTMCell(
    units,
    activation="tanh",
    recurrent_activation="sigmoid",
    use_bias=True,
    kernel_initializer="glorot_uniform",
    recurrent_initializer="orthogonal",
    bias_initializer="zeros",
    unit_forget_bias=True,
    kernel_regularizer=None,
    recurrent_regularizer=None,
    bias_regularizer=None,
    kernel_constraint=None,
    recurrent_constraint=None,
    bias_constraint=None,
    dropout=0.0,
    recurrent_dropout=0.0,
    seed=None,
    **kwargs
)

LSTM 層的細胞類別。

此類別處理整個時間序列輸入中的一個步驟,而 keras.layer.LSTM 處理整個序列。

參數

  • units:正整數,輸出空間的維度。
  • activation:要使用的啟動函數。預設值:雙曲正切函數 (tanh)。如果您傳遞 None,則不套用啟動函數(即「線性」啟動函數:a(x) = x)。
  • recurrent_activation:用於循環步驟的啟動函數。預設值:sigmoid 函數 (sigmoid)。如果您傳遞 None,則不套用啟動函數(即「線性」啟動函數:a(x) = x)。
  • use_bias:布林值,(預設值 True),指示圖層是否應使用偏置向量。
  • kernel_initializer:用於 kernel 權重矩陣的初始化器,用於輸入的線性轉換。預設值:"glorot_uniform"
  • recurrent_initializer:用於 recurrent_kernel 權重矩陣的初始化器,用於循環狀態的線性轉換。預設值:"orthogonal"
  • bias_initializer:偏置向量的初始化器。預設值:"zeros"
  • unit_forget_bias:布林值(預設值 True)。如果為 True,則在初始化時將 1 新增至遺忘閘的偏置。將其設定為 True 也會強制 bias_initializer="zeros"。建議在 Jozefowicz et al. 中使用。
  • kernel_regularizer:套用至 kernel 權重矩陣的正規化函數。預設值:None
  • recurrent_regularizer:套用至 recurrent_kernel 權重矩陣的正規化函數。預設值:None
  • bias_regularizer:套用至偏置向量的正規化函數。預設值:None
  • kernel_constraint:套用至 kernel 權重矩陣的約束函數。預設值:None
  • recurrent_constraint:套用至 recurrent_kernel 權重矩陣的約束函數。預設值:None
  • bias_constraint:套用至偏置向量的約束函數。預設值:None
  • dropout:介於 0 和 1 之間的浮點數。為輸入的線性轉換而捨棄的單元比例。預設值:0。
  • recurrent_dropout:介於 0 和 1 之間的浮點數。為循環狀態的線性轉換而捨棄的單元比例。預設值:0。
  • seed:dropout 的隨機種子。

呼叫參數

  • inputs:2D 張量,形狀為 (batch, features)
  • states:2D 張量,形狀為 (batch, units),這是來自前一個時間步的狀態。
  • training:Python 布林值,指示圖層應在訓練模式還是推論模式下運作。僅在使用 dropoutrecurrent_dropout 時相關。

範例

>>> inputs = np.random.random((32, 10, 8))
>>> rnn = keras.layers.RNN(keras.layers.LSTMCell(4))
>>> output = rnn(inputs)
>>> output.shape
(32, 4)
>>> rnn = keras.layers.RNN(
...    keras.layers.LSTMCell(4),
...    return_sequences=True,
...    return_state=True)
>>> whole_sequence_output, final_state = rnn(inputs)
>>> whole_sequence_output.shape
(32, 10, 4)
>>> final_state.shape
(32, 4)