Self- vs. Multi-Head-Attention
Du bist Datenanalyst/in in einem KI-Entwicklungsteam. In deinem aktuellen Projekt geht es darum, die Konzepte der Self-Attention und der Multi-Head-Attention zu verstehen und in einem Sprachmodell umzusetzen. Betrachte die folgenden Sätze aus einem Gesprächsdatensatz.
A: "Der Junge ging in den Laden, um Lebensmittel zu kaufen."
B: "Oh, er war ganz aufgeregt, weil er sein liebstes Müsli bekommen hat."
C: "Mir ist aufgefallen, dass er viel gestikuliert hat, während er darüber sprach."
Bestimme, ob diese Sätze am besten analysiert werden, wenn du dich auf die Beziehungen innerhalb der Eingabedaten konzentrierst (Self-Attention) oder mehrere Aspekte der Eingabedaten gleichzeitig beachtest (Multi-Head-Attention).
Diese Übung ist Teil des Kurses
Konzepte großer Sprachmodelle (LLMs)
Interaktive Übung zum Anfassen
Setzen Sie die Theorie mit einer unserer interaktiven Übungen in die Tat um
