ComeçarComece gratuitamente

Autoatenção vs. atenção de várias cabeças

Você é um analista de dados em uma equipe de desenvolvimento de IA. Seu projeto atual envolve a compreensão e a implementação dos conceitos de autoatenção e atenção de várias cabeças em um modelo de linguagem. Considere as seguintes frases de um conjunto de dados de conversas.

A: "O menino foi à loja para comprar alguns mantimentos."

B: "Oh, ele estava realmente animado para compras seu cereal favorito."

C: "Percebi que ele gesticulava muito enquanto falava sobre o assunto."

Determine se essas frases seriam mais bem analisadas se você se concentrasse nas relações dentro dos dados de entrada (autoatenção) ou se prestasse atenção a vários aspectos dos dados de entrada simultaneamente (atenção de várias cabeças).

Este exercício faz parte do curso

Conceitos de modelos de linguagem grandes (LLMs)

Ver Curso

Exercício interativo prático

Transforme a teoria em ação com um de nossos exercícios interativos

Comece o exercício