LoslegenKostenlos loslegen

Vortrainierte Modelle laden und inspizieren

Du baust einen conversational AI‑Assistenten, der mithilfe des leistungsstarken BERT‑Modells menschenähnliche Dialoge zu vielen Themen führen kann. Das Modell wurde zuvor auf einem großen Textkorpus vortrainiert.

Du gibst die Konfiguration aus, um zu prüfen, dass du ein conversational AI‑Modell mit bestimmten Parametern geladen hast, etwa model_type: bert, num_attention_heads: 12 und num_hidden_layers: 12.

Diese Übung ist Teil des Kurses

Effizientes KI-Modelltraining mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Initialisiere die Modellparameter mit der passenden AutoModel‑Klasse, um das Modell bert-base-uncased zu laden.
  • Gib die Konfiguration des Modells aus.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

from transformers import AutoModelForSequenceClassification

# Load a pre-trained bert-base-uncased model
model = ____.____("bert-base-uncased")

# Print the model's configuration
print(model.____)
Code bearbeiten und ausführen