IniziaInizia gratis

Provider di inferenza

In alcuni casi potresti non avere l'hardware necessario per eseguire in locale i modelli di Hugging Face. Gli LLM con molti parametri e, in particolare, i modelli per la generazione di immagini e video richiedono spesso le Graphics Processing Units (GPU) per parallelizzare i calcoli. Hugging Face mette a disposizione provider di inferenza per esternalizzare questo hardware a partner terzi.

Questo esercizio fa parte del corso

Lavorare con Hugging Face

Visualizza il corso

Esercizio pratico interattivo

Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi

Inizia esercizio