Hugging Face-modellen in LangChain!
Er zijn duizenden modellen gratis te downloaden en te gebruiken op Hugging Face. Hugging Face integreert heel goed met LangChain via de partnerbibliotheek langchain-huggingface, die je hier kunt gebruiken.
In deze oefening laad en roep je het crumb/nano-mistral-model van Hugging Face aan. Dit is een ultralichte LLM die is ontworpen om te finetunen voor betere prestaties.
Deze oefening maakt deel uit van de cursus
LLM-toepassingen ontwikkelen met LangChain
Oefeninstructies
- Importeer
HuggingFacePipelineuitlangchain_huggingfaceom met Hugging Face-modellen te werken. - Definieer een tekstgeneratie-LLM door
HuggingFacePipeline.from_model_id()aan te roepen. - Stel de parameter
model_idin om te bepalen welk Hugging Face-model je wilt gebruiken.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Import the HuggingFacePipeline class for defining Hugging Face pipelines
from langchain_huggingface import ____
# Define the LLM from the Hugging Face model ID
llm = ____.from_model_id(
____="crumb/nano-mistral",
task="text-generation",
pipeline_kwargs={"max_new_tokens": 20}
)
prompt = "Hugging Face is"
# Invoke the model
response = llm.invoke(prompt)
print(response)