TokenAndPositionEmbedding
類別keras_hub.layers.TokenAndPositionEmbedding(
vocabulary_size,
sequence_length,
embedding_dim,
tie_weights=True,
embeddings_initializer="uniform",
mask_zero=False,
**kwargs
)
將詞嵌入和位置嵌入相加的層。
詞嵌入和位置嵌入是表示句子中詞彙及其順序的方法。此層建立一個 keras.layers.Embedding
詞嵌入和一個 keras_hub.layers.PositionEmbedding
位置嵌入,並在呼叫時將它們的輸出相加。此層假設輸入中的最後一個維度對應於序列維度。
參數
reverse
投射矩陣是否應該共享相同的權重。keras.layers.Layer
的其他關鍵字參數,包括 name
、trainable
、dtype
等。範例
inputs = np.ones(shape=(1, 50), dtype="int32")
embedding_layer = keras_hub.layers.TokenAndPositionEmbedding(
vocabulary_size=10_000,
sequence_length=50,
embedding_dim=128,
)
outputs = embedding_layer(inputs)