Crea un video!
È il tuo turno: prova a creare un video partendo solo da un prompt testuale! Userai una pipeline CogVideoXPipeline e il seguente prompt per guidarne la generazione:
A robot doing the robot dance. The dance floor has colorful squares and a glitterball.
Nota: l'inferenza con modelli di generazione video può richiedere molto tempo, quindi abbiamo già precaricato per te il video generato. Eseguire prompt diversi non genererà nuovi video.
La classe CogVideoXPipeline è già stata importata per te.
Questo esercizio fa parte del corso
Modelli multi-modali con Hugging Face
Istruzioni dell'esercizio
- Crea una
CogVideoXPipelinedal checkpointTHUDM/CogVideoX-2b. - Esegui la pipeline con il prompt fornito, impostando il numero di passi di inferenza a
20, il numero di frame da generare a20e il guidance scale a6.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
prompt = "A robot doing the robot dance. The dance floor has colorful squares and a glitterball."
# Create a CogVideoXPipeline
pipe = ____(
"____",
torch_dtype=torch.float16
)
# Run the pipeline with the provided prompt
video = pipe(
prompt=____,
num_inference_steps=____,
num_frames=____,
guidance_scale=____
)
video = video.frames[0]
video_path = export_to_video(video, "output.mp4", fps=8)
video = VideoFileClip(video_path)
video.write_gif("video_ex.gif")