LoslegenKostenlos loslegen

Kundensupport-Antworten steuern

Du arbeitest für ein E-Commerce-Unternehmen und integrierst Llama in einen Assistenten für den Kundensupport. Der Assistent beantwortet häufig gestellte Fragen, aber dir ist aufgefallen, dass die Antworten zu repetitiv sind.

Du musst die Decoding-Parameter anpassen, um variantenreichere Formulierungen zu fördern, dabei aber weiterhin informative Antworten zu erhalten.

Das Modell ist bereits mit llama_cpp instanziiert und in llm gespeichert.

Diese Übung ist Teil des Kurses

Arbeiten mit Llama 3

Kurs anzeigen

Anleitung zur Übung

  • Setze den Parameter temperature so, dass die Antworten weniger repetitiv und dynamischer werden.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

output = llm(
		"Can I exchange an item I purchased?", 
  		# Set the temperature parameter to provide more varied responses
		temperature=____,
        max_tokens=15
) 

print(output['choices'][0]['text'])
Code bearbeiten und ausführen