Provider di inferenza
In alcuni casi potresti non avere l'hardware necessario per eseguire in locale i modelli di Hugging Face. Gli LLM con molti parametri e, in particolare, i modelli per la generazione di immagini e video richiedono spesso le Graphics Processing Units (GPU) per parallelizzare i calcoli. Hugging Face mette a disposizione provider di inferenza per esternalizzare questo hardware a partner terzi.
Questo esercizio fa parte del corso
Lavorare con Hugging Face
Esercizio pratico interattivo
Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi
Inizia esercizio