PyTorch'ta Embedding
PyBooks, bir kitap öneri sistemiyle başarı yakaladı. Ancak bu sistem, metindeki bazı anlam ilişkilerini hesaba katmıyor. PyTorch'un yerleşik embedding katmanı, kelimeler arasındaki ilişkileri doğrudan veriden öğrenip temsil edebilir. Ekibin, kitap öneri sistemini geliştirmek için bu özelliği keşfetmek istiyor. Bunu uygulamaya yardımcı olabilir misin?
torch ve torch.nn kısaca nn olarak senin için içe aktarıldı.
Bu egzersiz
PyTorch ile Metin için Deep Learning
kursunun bir parçasıdırEgzersiz talimatları
wordsiçindeki her kelimeye benzersiz bir indeks eşle veword_to_idxolarak kaydet.word_to_idx'i bir PyTorch tensörüne dönüştür veinputsolarak kaydet.torchmodülünü kullanarak on boyutlu bir embedding katmanı başlat.inputstensörünü embedding katmanına aktar ve çıktıyı incele.
Uygulamalı interaktif egzersiz
Bu örnek kodu tamamlayarak bu egzersizi bitirin.
# Map a unique index to each word
words = ["This", "book", "was", "fantastic", "I", "really", "love", "science", "fiction", "but", "the", "protagonist", "was", "rude", "sometimes"]
word_to_idx = {word: ____ for i, word in enumerate(____)}
# Convert word_to_idx to a tensor
inputs = ____.____([word_to_idx[w] for w in words])
# Initialize embedding layer with ten dimensions
embedding = nn.____(num_embeddings=len(words), embedding_dim=____)
# Pass the tensor to the embedding layer
output = embedding(____)
print(output)