IniziaInizia gratis

Inference providers

In some cases, you may lack the hardware to run Hugging Face models locally. Large-parameter LLMs, and image and video generation models in particular often require Graphics Processing Units (GPUs) to parallelize the computations. Hugging Face providers inference providers to outsource this hardware to third-party partners.

Questo esercizio fa parte del corso

Working with Hugging Face

Visualizza il corso

Esercizio pratico interattivo

Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi

Inizia esercizio