Aan de slagGa gratis aan de slag

Hugging Face-modellen in LangChain!

Er zijn duizenden modellen gratis te downloaden en te gebruiken op Hugging Face. Hugging Face integreert heel goed met LangChain via de partnerbibliotheek langchain-huggingface, die je hier kunt gebruiken.

In deze oefening laad en roep je het crumb/nano-mistral-model van Hugging Face aan. Dit is een ultralichte LLM die is ontworpen om te finetunen voor betere prestaties.

Deze oefening maakt deel uit van de cursus

LLM-toepassingen ontwikkelen met LangChain

Cursus bekijken

Oefeninstructies

  • Importeer HuggingFacePipeline uit langchain_huggingface om met Hugging Face-modellen te werken.
  • Definieer een tekstgeneratie-LLM door HuggingFacePipeline.from_model_id() aan te roepen.
  • Stel de parameter model_id in om te bepalen welk Hugging Face-model je wilt gebruiken.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Import the HuggingFacePipeline class for defining Hugging Face pipelines
from langchain_huggingface import ____

# Define the LLM from the Hugging Face model ID
llm = ____.from_model_id(
    ____="crumb/nano-mistral",
    task="text-generation",
    pipeline_kwargs={"max_new_tokens": 20}
)

prompt = "Hugging Face is"

# Invoke the model
response = llm.invoke(prompt)
print(response)
Code bewerken en uitvoeren