Eine spaCy-Pipeline ausführen
Du hast bereits eine spaCy-NLP-Pipeline auf einen einzelnen Text angewendet und außerdem Tokens aus einer gegebenen Liste von Doc-Containern extrahiert. In dieser Übung übst du die ersten Schritte beim Ausführen einer spaCy-Pipeline auf texts, einer Liste von Text-Strings.
Dafür verwendest du das Modell en_core_web_sm. Das Paket spaCy wurde bereits für dich importiert.
Diese Übung ist Teil des Kurses
Natural Language Processing mit spaCy
Anleitung zur Übung
- Lade das Modell
en_core_web_smalsnlp. - Führe für jedes Element von
textseinnlp()-Modell aus und hänge jeden entsprechendenDoc-Container an eine Listedocumentsan. - Gib die Token-Texte für jeden
Doc-Container in der Listedocumentsaus.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Load en_core_web_sm model as nlp
nlp = spacy.____(____)
# Run an nlp model on each item of texts and append the Doc container to documents
documents = []
for text in ____:
documents.append(____)
# Print the token texts for each Doc container
for doc in documents:
print([____ for ____ in ____])