IniziaInizia gratis

Formattare i prompt per Llama

A volte i modelli faticano a distinguere il compito, l'output atteso e il contesto aggiuntivo quando il prompt è lungo e non strutturato. Per risolvere il problema, puoi inserire etichette chiare per separare e differenziare queste informazioni per il modello.

Il modello Llama è disponibile come llm e sarà disponibile per il resto del corso.

Questo esercizio fa parte del corso

Lavorare con Llama 3

Visualizza il corso

Istruzioni dell'esercizio

  • Aggiungi le etichette Instruction, Question e Answer al prompt per formattarlo in modo più efficace.
  • Passa il prompt al modello.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""

# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"]) 
print(output['choices'][0]['text'])
Modifica ed esegui il codice