IniziaInizia gratis

Quiz 2 - Question 2

A GPU has a peak performance of 500 TeraFLOPS (floating-point operations per second). You want to train a model that requires a total of 2 ExaFLOPs for one epoch. Approximately how long will one training epoch take on this GPU?

Hint: 1 ExaFLOP = 1,000 PetaFLOPs, and 1 PetaFLOP = 1,000 TeraFLOPs.

Questo esercizio fa parte del corso

Google DeepMind: Accelerate Your Model

Visualizza il corso

Esercizio pratico interattivo

Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi

Inizia esercizio