Self- vs. multi-head attention
Je bent data-analist in een AI-ontwikkelingsteam. Je huidige project draait om het begrijpen en implementeren van de concepten self-attention en multi-head attention in een taalmodel. Bekijk de volgende zinnen uit een conversatiegegevensset.
A: "The boy went to the store to buy some groceries."
B: "Oh, he was really excited about getting his favorite cereal."
C: "I noticed that he gestured a lot while talking about it."
Bepaal of deze zinnen het best geanalyseerd worden door te focussen op relaties binnen de invoer (self-attention) of door tegelijk naar meerdere aspecten van de invoer te kijken (multi-head attention).
Deze oefening maakt deel uit van de cursus
Concepten van Large Language Models (LLMs)
Praktische interactieve oefening
Zet theorie om in actie met een van onze interactieve oefeningen.
Begin met trainen