Aan de slagGa gratis aan de slag

Inference providers

In some cases, you may lack the hardware to run Hugging Face models locally. Large-parameter LLMs, and image and video generation models in particular often require Graphics Processing Units (GPUs) to parallelize the computations. Hugging Face providers inference providers to outsource this hardware to third-party partners.

Deze oefening maakt deel uit van de cursus

Working with Hugging Face

Cursus bekijken

Praktische interactieve oefening

Zet theorie om in actie met een van onze interactieve oefeningen.

Begin met trainen