CommencerCommencer gratuitement

Modèles Hugging Face dans LangChain !

Des milliers de modèles sont disponibles gratuitement en téléchargement et utilisables sur Hugging Face. Hugging Face s'intègre parfaitement à LangChain via sa bibliothèque partenaire, langchain-huggingface, que vous pouvez utiliser.

Dans cet exercice, vous allez charger et appeler le modèle crumb/nano-mistral de Hugging Face. Il s'agit d'un LLM ultra-léger conçu pour être optimisé afin d'offrir des performances accrues.

Cet exercice fait partie du cours

Développement d'applications LLM avec LangChain

Afficher le cours

Instructions

  • Importez la classe permettant de définir les pipelines Hugging Face dans LangChain.
  • Définissez un LLM de génération de texte à l'aide de l'ID de modèle 'crumb/nano-mistral' de Hugging Face.
  • Veuillez utiliser llm pour prédire les mots suivants après le texte dans prompt.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Import the class for defining Hugging Face pipelines
from langchain_huggingface import ____

# Define the LLM from the Hugging Face model ID
llm = ____.from_model_id(
    ____="crumb/nano-mistral",
    task="text-generation",
    pipeline_kwargs={"max_new_tokens": 20}
)

prompt = "Hugging Face is"

# Invoke the model
response = llm.invoke(prompt)
print(response)
Modifier et exécuter le code