Tokeniza una cadena de GoT
Un primer paso estándar al trabajar con texto es tokenizarlo; es decir, dividir una cadena más grande en cadenas individuales, que suelen ser palabras sueltas (tokens).
Se ha creado para ti una cadena GoT que contiene una cita de Game of Thrones de George R.R. Martin. Tu tarea es dividirla en tokens individuales.
Este ejercicio forma parte del curso
Sentiment Analysis in Python
Instrucciones del ejercicio
- Importa la función de tokenización de palabras de
nltk. - Transforma la cadena
GoTen tokens de palabras.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Import the required function
from nltk import ____
# Transform the GoT string to word tokens
print(____(____))