TokenAndPositionEmbedding
類別keras_hub.layers.TokenAndPositionEmbedding(
vocabulary_size,
sequence_length,
embedding_dim,
tie_weights=True,
embeddings_initializer="uniform",
mask_zero=False,
**kwargs
)
一個將詞元 (token) 和位置嵌入 (position embedding) 相加的層。
詞元和位置嵌入是用於表示詞語及其在句子中順序的方法。此層創建一個 keras.layers.Embedding
詞元嵌入和一個 keras_hub.layers.PositionEmbedding
位置嵌入,並在調用時將它們的輸出相加。此層假設輸入中的最後一個維度對應於序列維度。
參數
reverse
投影矩陣是否應共享相同的權重。keras.layers.Layer
的其他關鍵字參數,包括 name
、trainable
、dtype
等。範例
inputs = np.ones(shape=(1, 50), dtype="int32")
embedding_layer = keras_hub.layers.TokenAndPositionEmbedding(
vocabulary_size=10_000,
sequence_length=50,
embedding_dim=128,
)
outputs = embedding_layer(inputs)