Self vs. multi-head attention
Sei un data analyst in un team di sviluppo AI. Il tuo progetto attuale prevede di comprendere e implementare i concetti di self-attention e multi-head attention in un modello linguistico. Considera le seguenti frasi tratte da un insieme di dati di conversazioni.
A: "The boy went to the store to buy some groceries."
B: "Oh, he was really excited about getting his favorite cereal."
C: "I noticed that he gestured a lot while talking about it."
Stabilisci se queste frasi si analizzano meglio concentrandosi sulle relazioni all'interno dei dati di input (self-attention) o prestando attenzione contemporaneamente a molteplici aspetti dei dati di input (multi-head attention).
Questo esercizio fa parte del corso
Concetti sui Large Language Models (LLM)
Esercizio pratico interattivo
Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi
Inizia esercizio