Context bieden via voorbeeldgesprekken
Stel, er is een bezorgdienst met de naam MyPersonalDelivery die een breed scala aan bezorgopties voor verschillende items aanbiedt. Je wilt een klantenservicechatbot maken die klanten helpt met alles wat ze nodig hebben. Om dit te bereiken, geef je een context_question en een context_answer over items die het bedrijf bezorgt op basis van eerdere gesprekken, en test je of het model deze context herkent via een nieuwe prompt van de gebruiker.
Het pakket OpenAI en de strings context_question en context_answer zijn al voor je ingeladen.
Deze oefening maakt deel uit van de cursus
Prompt Engineering met de OpenAI API
Oefeninstructies
- Definieer een
system_promptdie het doel van de chatbot beschrijft en hem aanstuurt om vragen vriendelijk te beantwoorden. - Gebruik de
system_prompt, decontext_questionencontext_answerom een gesprek te formuleren dat de chatbot kan gebruiken als context om te reageren op de nieuwe vraag van de gebruiker.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
client = OpenAI(api_key="")
# Define the system prompt
system_prompt = "____"
context_question = "What types of items can be delivered using MyPersonalDelivery?"
context_answer = "We deliver everything from everyday essentials such as groceries, medications, and documents to larger items like electronics, clothing, and furniture. However, please note that we currently do not offer delivery for hazardous materials or extremely fragile items requiring special handling."
# Add the context to the model
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "____", "content": ____},
{"role": "____", "content": ____},
{"role": "____", "content": ____ },
{"role": "user", "content": "Do you deliver furniture?"}])
response = response.choices[0].message.content
print(response)