TokenAndPositionEmbedding
類別keras_nlp.layers.TokenAndPositionEmbedding(
vocabulary_size,
sequence_length,
embedding_dim,
tie_weights=True,
embeddings_initializer="uniform",
mask_zero=False,
**kwargs
)
一個將詞元嵌入和位置嵌入相加的層。
詞元嵌入和位置嵌入是用於表示句子中詞彙及其順序的方法。此層會建立一個 keras.layers.Embedding
詞元嵌入和一個 keras_nlp.layers.PositionEmbedding
位置嵌入,並在呼叫時將其輸出相加。此層假設輸入中的最後一個維度對應於序列維度。
參數
reverse
投影矩陣是否應共用相同的權重。mask_zero
設定為 True,則索引 0 無法在詞彙表中使用(input_dim 應等於詞彙表大小 + 1)。keras.layers.Layer
的其他關鍵字參數,包括 name
、trainable
、dtype
等。範例
inputs = np.ones(shape=(1, 50), dtype="int32")
embedding_layer = keras_nlp.layers.TokenAndPositionEmbedding(
vocabulary_size=10_000,
sequence_length=50,
embedding_dim=128,
)
outputs = embedding_layer(inputs)