MulaiMulai sekarang secara gratis

Penyedia inferensi

Dalam beberapa kasus, Anda mungkin tidak memiliki perangkat keras untuk menjalankan model Hugging Face secara lokal. LLM berparameter besar, serta model generasi gambar dan video pada khususnya, sering memerlukan Graphics Processing Units (GPU) untuk melakukan komputasi secara paralel. Hugging Face menyediakan penyedia inferensi untuk mengalihdayakan kebutuhan perangkat keras ini ke mitra pihak ketiga.

Latihan ini adalah bagian dari kursus

Bekerja dengan Hugging Face

Lihat Kursus

Latihan interaktif praktis

Ubah teori menjadi tindakan dengan salah satu latihan interaktif kami.

Mulai berolahraga