Self Attention ou Multi Head Attention
Vous occupez le poste de data scientist au sein d'une équipe de développement en intelligence artificielle. Votre projet actuel consiste à comprendre et à mettre en œuvre les concepts de Self Attention et de Multi Head Attention dans un modèle de langage. Examinez les phrases suivantes issues d'un ensemble de données de conversations.
A : « Le jeune homme s'est rendu au magasin pour acheter des provisions. »
B : « Il était vraiment enthousiaste à l'idée d'obtenir ses céréales préférées. »
C : « J'ai remarqué qu'il gesticulait beaucoup lorsqu'il en parlait. »
Déterminez si ces expressions seraient mieux analysées en se concentrant sur les relations au sein des données d'entrée (Self Attention) ou en prêtant attention à plusieurs aspects des données d'entrée simultanément (Multi Head Attention).
Cet exercice fait partie du cours
Concepts des grands modèles de langage (LLM)
Exercice interactif pratique
Passez de la théorie à la pratique avec l’un de nos exercices interactifs
Commencer l’exercice