Erste SchritteKostenlos loslegen

Self- vs. Multi-Head-Attention

Du bist Datenanalyst/in in einem KI-Entwicklungsteam. In deinem aktuellen Projekt geht es darum, die Konzepte der Self-Attention und der Multi-Head-Attention zu verstehen und in einem Sprachmodell umzusetzen. Betrachte die folgenden Sätze aus einem Gesprächsdatensatz.

A: "Der Junge ging in den Laden, um Lebensmittel zu kaufen."

B: "Oh, er war ganz aufgeregt, weil er sein liebstes Müsli bekommen hat."

C: "Mir ist aufgefallen, dass er viel gestikuliert hat, während er darüber sprach."

Bestimme, ob diese Sätze am besten analysiert werden, wenn du dich auf die Beziehungen innerhalb der Eingabedaten konzentrierst (Self-Attention) oder mehrere Aspekte der Eingabedaten gleichzeitig beachtest (Multi-Head-Attention).

Diese Übung ist Teil des Kurses

Konzepte großer Sprachmodelle (LLMs)

Kurs anzeigen

Interaktive Übung zum Anfassen

Setzen Sie die Theorie mit einer unserer interaktiven Übungen in die Tat um

Beginnen Sie mit dem Training