Penyedia inferensi
Dalam beberapa kasus, Anda mungkin tidak memiliki perangkat keras untuk menjalankan model Hugging Face secara lokal. LLM berparameter besar, serta model generasi gambar dan video pada khususnya, sering memerlukan Graphics Processing Units (GPU) untuk melakukan komputasi secara paralel. Hugging Face menyediakan penyedia inferensi untuk mengalihdayakan kebutuhan perangkat keras ini ke mitra pihak ketiga.
Latihan ini adalah bagian dari kursus
Bekerja dengan Hugging Face
Latihan interaktif praktis
Ubah teori menjadi tindakan dengan salah satu latihan interaktif kami.
Mulai berolahraga