KI-Modell beim Serverstart laden
Du sollst ein trainiertes Sentiment-Analyse-Modell bereitstellen, das dabei hilft, Kommentare von Nutzerinnen und Nutzern zu moderieren. Um Ausfallzeiten zu vermeiden, muss die API direkt beim Start bereit sein, Kommentare zu analysieren.
In dieser Übung implementierst du die Lifespan-Events von FastAPI, um dein Modell effizient zu laden und so das Kommentar-Moderationssystem aufzubauen. Die Modellklasse SentimentAnalyzer ist bereits definiert und für dich importiert.
Diese Übung ist Teil des Kurses
KI in der Produktion mit FastAPI bereitstellen
Anleitung zur Übung
- Importiere den Context-Manager-Decorator aus dem Modul
contextlib, um das Lifespan-Event zu erstellen. - Verwende den Context-Manager-Decorator von FastAPI, um die Event-Funktion
lifespanzu definieren, damit das Modell beim Start geladen wird. - Rufe in
lifespandie Funktion auf, die das Modell beim Start lädt. - Verwende
yield, damit der Serverladeprozess fortgesetzt werden kann.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Import the context manager decorator from contextlib module
from contextlib import ____
sentiment_model = None
def load_model():
global sentiment_model
sentiment_model = SentmentAnalyzer("sentiment_model.joblib")
# Use FastAPI's context manager to define lifespan event
@____
def lifespan(app: FastAPI):
# Call the function to load the model
____
____