Klantenservicereacties sturen
Je werkt bij een e-commercebedrijf en integreert Llama in een klantenservice-assistent. De assistent beantwoordt veelgestelde vragen, maar je hebt gemerkt dat de reacties te repetitief zijn.
Je moet de decoding-parameters aanpassen om meer variatie in de bewoording te krijgen, terwijl de antwoorden informatief blijven.
Het model is al geïnstantieerd met een model via llama_cpp en staat in llm.
Deze oefening maakt deel uit van de cursus
Werken met Llama 3
Oefeninstructies
- Stel de parameter
temperaturein zodat reacties minder repetitief en dynamischer zijn.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
output = llm(
"Can I exchange an item I purchased?",
# Set the temperature parameter to provide more varied responses
temperature=____,
max_tokens=15
)
print(output['choices'][0]['text'])