ComenzarEmpieza gratis

Dar formato a los prompts para Llama

A veces, los modelos tienen dificultades para separar la tarea, el resultado esperado y el contexto adicional cuando el prompt es largo y no está estructurado. Para solucionarlo, puedes insertar etiquetas claras que dividan y diferencien esta información para el modelo.

El modelo Llama está disponible como llm y permanecerá disponible durante el resto del curso.

Este ejercicio forma parte del curso

Trabajar con Llama 3

Ver curso

Instrucciones del ejercicio

  • Añade las etiquetas Instruction, Question y Answer al prompt para darle un formato más eficaz.
  • Pasa el prompt al modelo.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Add formatting to the prompt
prompt="""
____: Explain the concept of gravity in simple terms.
____: What is gravity?
____:
"""

# Send the prompt to the model
output = llm(____, max_tokens=15, stop=["Question:"]) 
print(output['choices'][0]['text'])
Editar y ejecutar código