Kontext durch Gesprächsbeispiele liefern
Angenommen, es gibt einen Lieferservice namens MyPersonalDelivery, der eine breite Palette von Lieferoptionen für verschiedene Artikel anbietet. Du willst einen Kundenservice-Chatbot erstellen, der Kunden bei allem unterstützt, was sie brauchen. Dazu stellst du eine context_question
und eine context_answer
über Artikel bereit, die das Unternehmen über frühere Konversationen liefert, und du testest, ob das Modell diesen Kontext durch eine neue Benutzerabfrage wiedererkennt.
Das OpenAI
Paket, die context_question
und context_answer
Strings wurden für dich vorgeladen.
Diese Übung ist Teil des Kurses
ChatGPT Prompt Engineering für Entwickler
Anleitung zur Übung
- Definiere eine
system_prompt
, die den Zweck des Chatbots definiert und ihn dazu anleitet, Fragen auf sanfte Weise zu beantworten. - Verwende die
system_prompt
, diecontext_question
und diecontext_answer
, um eine Konversation zu formulieren, die der Chatbot als Kontext verwenden kann, um auf die neue Benutzeranfrage zu antworten.
Interaktive Übung zum Anfassen
Probieren Sie diese Übung aus, indem Sie diesen Beispielcode ausführen.
client = OpenAI(api_key="")
# Define the system prompt
system_prompt = "____"
context_question = "What types of items can be delivered using MyPersonalDelivery?"
context_answer = "We deliver everything from everyday essentials such as groceries, medications, and documents to larger items like electronics, clothing, and furniture. However, please note that we currently do not offer delivery for hazardous materials or extremely fragile items requiring special handling."
# Add the context to the model
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "____", "content": ____},
{"role": "____", "content": ____},
{"role": "____", "content": ____ },
{"role": "user", "content": "Do you deliver furniture?"}])
response = response.choices[0].message.content
print(response)