IniziaInizia gratis

Self vs. multi-head attention

Sei un data analyst in un team di sviluppo AI. Il tuo progetto attuale prevede di comprendere e implementare i concetti di self-attention e multi-head attention in un modello linguistico. Considera le seguenti frasi tratte da un insieme di dati di conversazioni.

A: "The boy went to the store to buy some groceries."

B: "Oh, he was really excited about getting his favorite cereal."

C: "I noticed that he gestured a lot while talking about it."

Stabilisci se queste frasi si analizzano meglio concentrandosi sulle relazioni all'interno dei dati di input (self-attention) o prestando attenzione contemporaneamente a molteplici aspetti dei dati di input (multi-head attention).

Questo esercizio fa parte del corso

Concetti sui Large Language Models (LLM)

Visualizza il corso

Esercizio pratico interattivo

Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi

Inizia esercizio