Sequentiële chains met LCEL
Nu je prompt-templates klaar zijn, is het tijd om alles samen te brengen, inclusief de LLM, met chains en LCEL. Er is al een llm voor je gedefinieerd die het gpt-4o-mini-model van OpenAI gebruikt.
Voor de laatste stap, het aanroepen van de chain, mag je elke activiteit invullen die je wilt! Heb je geen inspiratie? Probeer dan "play the harmonica".
Deze oefening maakt deel uit van de cursus
LLM-toepassingen ontwikkelen met LangChain
Oefeninstructies
- Maak een sequentiële chain met LCEL die
learning_promptdoorgeeft aan dellm, en de output doorstuurt naartime_promptom opnieuw naar dellmte verzenden. - Het eerste deel moet een woordenboek maken met
"learning_plan"als sleutel en de eerste chain als waarde. - Roep de chain aan met de
.invoke()-methode met een activiteit naar keuze!
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
learning_prompt = PromptTemplate(
input_variables=["activity"],
template="I want to learn how to {activity}. Can you suggest how I can learn this step-by-step?"
)
time_prompt = PromptTemplate(
input_variables=["learning_plan"],
template="I only have one week. Can you create a concise plan to help me hit this goal: {learning_plan}."
)
# Complete the sequential chain with LCEL
seq_chain = ({"learning_plan": ____ | ____ | ____}
| ____
| ____
| StrOutputParser())
# Call the chain
print(seq_chain.____({"____": "____"}))