BaşlayınÜcretsiz Başlayın

PyTorch'ta Embedding

PyBooks, bir kitap öneri sistemiyle başarı yakaladı. Ancak bu sistem, metindeki bazı anlam ilişkilerini hesaba katmıyor. PyTorch'un yerleşik embedding katmanı, kelimeler arasındaki ilişkileri doğrudan veriden öğrenip temsil edebilir. Ekibin, kitap öneri sistemini geliştirmek için bu özelliği keşfetmek istiyor. Bunu uygulamaya yardımcı olabilir misin?

torch ve torch.nn kısaca nn olarak senin için içe aktarıldı.

Bu egzersiz

PyTorch ile Metin için Deep Learning

kursunun bir parçasıdır
Kursu Görüntüle

Egzersiz talimatları

  • words içindeki her kelimeye benzersiz bir indeks eşle ve word_to_idx olarak kaydet.
  • word_to_idx'i bir PyTorch tensörüne dönüştür ve inputs olarak kaydet.
  • torch modülünü kullanarak on boyutlu bir embedding katmanı başlat.
  • inputs tensörünü embedding katmanına aktar ve çıktıyı incele.

Uygulamalı interaktif egzersiz

Bu örnek kodu tamamlayarak bu egzersizi bitirin.

# Map a unique index to each word
words = ["This", "book", "was", "fantastic", "I", "really", "love", "science", "fiction", "but", "the", "protagonist", "was", "rude", "sometimes"]
word_to_idx = {word: ____ for i, word in enumerate(____)}

# Convert word_to_idx to a tensor
inputs = ____.____([word_to_idx[w] for w in words])

# Initialize embedding layer with ten dimensions
embedding = nn.____(num_embeddings=len(words), embedding_dim=____)

# Pass the tensor to the embedding layer
output = embedding(____)
print(output)
Kodu Düzenle ve Çalıştır