Kundensupport-Antworten steuern
Du arbeitest für ein E-Commerce-Unternehmen und integrierst Llama in einen Assistenten für den Kundensupport. Der Assistent beantwortet häufig gestellte Fragen, aber dir ist aufgefallen, dass die Antworten zu repetitiv sind.
Du musst die Decoding-Parameter anpassen, um variantenreichere Formulierungen zu fördern, dabei aber weiterhin informative Antworten zu erhalten.
Das Modell ist bereits mit llama_cpp instanziiert und in llm gespeichert.
Diese Übung ist Teil des Kurses
Arbeiten mit Llama 3
Anleitung zur Übung
- Setze den Parameter
temperatureso, dass die Antworten weniger repetitiv und dynamischer werden.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
output = llm(
"Can I exchange an item I purchased?",
# Set the temperature parameter to provide more varied responses
temperature=____,
max_tokens=15
)
print(output['choices'][0]['text'])