LoslegenKostenlos loslegen

KI-Modell beim Serverstart laden

Du sollst ein trainiertes Sentiment-Analyse-Modell bereitstellen, das dabei hilft, Kommentare von Nutzerinnen und Nutzern zu moderieren. Um Ausfallzeiten zu vermeiden, muss die API direkt beim Start bereit sein, Kommentare zu analysieren.

In dieser Übung implementierst du die Lifespan-Events von FastAPI, um dein Modell effizient zu laden und so das Kommentar-Moderationssystem aufzubauen. Die Modellklasse SentimentAnalyzer ist bereits definiert und für dich importiert.

Diese Übung ist Teil des Kurses

KI in der Produktion mit FastAPI bereitstellen

Kurs anzeigen

Anleitung zur Übung

  • Importiere den Context-Manager-Decorator aus dem Modul contextlib, um das Lifespan-Event zu erstellen.
  • Verwende den Context-Manager-Decorator von FastAPI, um die Event-Funktion lifespan zu definieren, damit das Modell beim Start geladen wird.
  • Rufe in lifespan die Funktion auf, die das Modell beim Start lädt.
  • Verwende yield, damit der Serverladeprozess fortgesetzt werden kann.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Import the context manager decorator from contextlib module
from contextlib import ____

sentiment_model = None

def load_model():
    global sentiment_model
    sentiment_model = SentmentAnalyzer("sentiment_model.joblib")

# Use FastAPI's context manager to define lifespan event
@____
def lifespan(app: FastAPI):
    # Call the function to load the model
    ____
    ____
Code bearbeiten und ausführen