Autoatenção vs. atenção de várias cabeças
Você é um analista de dados em uma equipe de desenvolvimento de IA. Seu projeto atual envolve a compreensão e a implementação dos conceitos de autoatenção e atenção de várias cabeças em um modelo de linguagem. Considere as seguintes frases de um conjunto de dados de conversas.
A: "O menino foi à loja para comprar alguns mantimentos."
B: "Oh, ele estava realmente animado para compras seu cereal favorito."
C: "Percebi que ele gesticulava muito enquanto falava sobre o assunto."
Determine se essas frases seriam mais bem analisadas se você se concentrasse nas relações dentro dos dados de entrada (autoatenção) ou se prestasse atenção a vários aspectos dos dados de entrada simultaneamente (atenção de várias cabeças).
Este exercício faz parte do curso
Conceitos de modelos de linguagem grandes (LLMs)
Exercício interativo prático
Transforme a teoria em ação com um de nossos exercícios interativos
