MulaiMulai sekarang secara gratis

Self vs. multi-head attention

Anda adalah analis data dalam tim pengembangan AI. Proyek Anda saat ini melibatkan pemahaman dan penerapan konsep self-attention dan multi-head attention dalam model bahasa. Pertimbangkan frasa berikut dari himpunan data percakapan.

A: "The boy went to the store to buy some groceries."

B: "Oh, he was really excited about getting his favorite cereal."

C: "I noticed that he gestured a lot while talking about it."

Tentukan apakah frasa-frasa ini paling baik dianalisis dengan menyoroti hubungan di dalam data masukan (self-attention) atau dengan memperhatikan banyak aspek data masukan secara bersamaan (multi-head attention).

Latihan ini adalah bagian dari kursus

Konsep Large Language Models (LLM)

Lihat Kursus

Latihan interaktif praktis

Ubah teori menjadi tindakan dengan salah satu latihan interaktif kami.

Mulai berolahraga