or
Este exercício faz parte do curso
Descubra o que faz a arquitetura de deep learning mais quente da IA funcionar! Conheça os componentes que formam os modelos Transformer, incluindo os famosos mecanismos de self-attention descritos no renomado artigo "Attention is All You Need".
Projete blocos de codificador (encoder) e decodificador (decoder) de transformers e combine-os com codificação posicional, atenção multihead e redes feed-forward posição a posição para construir suas próprias arquiteturas Transformer. Ao longo do caminho, você vai desenvolver uma compreensão profunda e apreciar como os transformers funcionam por baixo dos panos.
Exercício atual