Formattare i prompt per Llama
A volte i modelli faticano a distinguere il compito, l'output atteso e il contesto aggiuntivo quando il prompt è lungo e non strutturato. Per risolvere il problema, puoi inserire etichette chiare per separare e differenziare queste informazioni per il modello.
Il modello Llama è disponibile come llm e sarà disponibile per il resto del corso.
Questo esercizio fa parte del corso
Lavorare con Llama 3
Istruzioni dell'esercizio
- Aggiungi le etichette
Instruction,QuestioneAnsweral prompt per formattarlo in modo più efficace. - Passa il prompt al modello.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""
# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"])
print(output['choices'][0]['text'])