ComenzarEmpieza gratis

Autoatención frente a Multi-Head Attention

Eres analista de datos en un equipo de desarrollo de IA. Tu proyecto actual consiste en comprender y aplicar los conceptos de Self-Attention y Multi-head Attention en un modelo lingüístico. Considera las siguientes frases de un conjunto de datos de conversaciones.

A: "The boy went to the store to buy some groceries." ("El chico fue a la tienda a comprar comestibles".)

B: "Oh, he was really excited about getting his favorite cereal." ("Él estaba muy ilusionado por conseguir sus cereales favoritos".)

C: "I noticed that he gestured a lot while talking about it." ("Me di cuenta de que gesticulaba mucho mientras hablaba de ello".)

Determina si estas frases se analizarían mejor centrándose en las relaciones dentro de los datos de entrada (Self-Attention) o atendiendo a múltiples aspectos de los datos de entrada simultáneamente (Multi-head Attention).

Este ejercicio forma parte del curso

Conceptos de grandes modelos lingüísticos (LLM)

Ver curso

Ejercicio interactivo práctico

Pon en práctica la teoría con uno de nuestros ejercicios interactivos

Empieza el ejercicio