Dar formato a los prompts para Llama
A veces, los modelos tienen dificultades para separar la tarea, el resultado esperado y el contexto adicional cuando el prompt es largo y no está estructurado. Para solucionarlo, puedes insertar etiquetas claras que dividan y diferencien esta información para el modelo.
El modelo Llama está disponible como llm y permanecerá disponible durante el resto del curso.
Este ejercicio forma parte del curso
Trabajar con Llama 3
Instrucciones del ejercicio
- Añade las etiquetas
Instruction,QuestionyAnsweral prompt para darle un formato más eficaz. - Pasa el prompt al modelo.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""
# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"])
print(output['choices'][0]['text'])