CommencerCommencer gratuitement

Self Attention ou Multi Head Attention

Vous occupez le poste de data scientist au sein d'une équipe de développement en intelligence artificielle. Votre projet actuel consiste à comprendre et à mettre en œuvre les concepts de Self Attention et de Multi Head Attention dans un modèle de langage. Examinez les phrases suivantes issues d'un ensemble de données de conversations.

A : « Le jeune homme s'est rendu au magasin pour acheter des provisions. »

B : « Il était vraiment enthousiaste à l'idée d'obtenir ses céréales préférées. »

C : « J'ai remarqué qu'il gesticulait beaucoup lorsqu'il en parlait. »

Déterminez si ces expressions seraient mieux analysées en se concentrant sur les relations au sein des données d'entrée (Self Attention) ou en prêtant attention à plusieurs aspects des données d'entrée simultanément (Multi Head Attention).

Cet exercice fait partie du cours

Concepts des grands modèles de langage (LLM)

Afficher le cours

Exercice interactif pratique

Passez de la théorie à la pratique avec l’un de nos exercices interactifs

Commencer l’exercice