Modèles Hugging Face dans LangChain !
Des milliers de modèles sont disponibles gratuitement en téléchargement et utilisables sur Hugging Face. Hugging Face s'intègre parfaitement à LangChain via sa bibliothèque partenaire, langchain-huggingface
, que vous pouvez utiliser.
Dans cet exercice, vous allez charger et appeler le modèle crumb/nano-mistral
de Hugging Face. Il s'agit d'un LLM ultra-léger conçu pour être optimisé afin d'offrir des performances accrues.
Cet exercice fait partie du cours
Développement d'applications LLM avec LangChain
Instructions
- Importez la classe permettant de définir les pipelines Hugging Face dans LangChain.
- Définissez un LLM de génération de texte à l'aide de l'ID de modèle
'crumb/nano-mistral'
de Hugging Face. - Veuillez utiliser
llm
pour prédire les mots suivants après le texte dansprompt
.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Import the class for defining Hugging Face pipelines
from langchain_huggingface import ____
# Define the LLM from the Hugging Face model ID
llm = ____.from_model_id(
____="crumb/nano-mistral",
task="text-generation",
pipeline_kwargs={"max_new_tokens": 20}
)
prompt = "Hugging Face is"
# Invoke the model
response = llm.invoke(prompt)
print(response)