Ajuste genético de hiperparámetros con TPOT
Vas a realizar un ejemplo sencillo de ajuste genético de hiperparámetros. TPOT es una librería muy potente con muchas funcionalidades. En esta lección solo rozas la superficie, pero te animamos a explorarla por tu cuenta.
Este es un ejemplo muy pequeño. En la práctica, TPOT está pensado para ejecutarse durante muchas horas para encontrar el mejor modelo. Suele usarse una población y un tamaño de descendencia mucho mayores, así como cientos de generaciones para dar con un buen modelo.
Crearás el estimador, lo ajustarás a los datos de entrenamiento y después lo evaluarás en los datos de prueba.
Para este ejemplo queremos usar:
- 3 generaciones
- 4 en el tamaño de la población
- 3 descendientes en cada generación
- accuracy como métrica de evaluación
Se ha fijado un random_state de 2 para mantener la consistencia de los resultados.
Este ejercicio forma parte del curso
Ajuste de hiperparámetros en Python
Instrucciones del ejercicio
- Asigna a las entradas de
tpot_clflos valores indicados en el contexto. - Crea el clasificador
tpot_clfcon los argumentos correctos. - Ajusta el clasificador a los datos de entrenamiento (tienes
X_trainyy_trainen tu espacio de trabajo). - Usa el clasificador ajustado para puntuar en el conjunto de prueba (tienes
X_testyy_testen tu espacio de trabajo).
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Assign the values outlined to the inputs
number_generations = ____
population_size = ____
offspring_size = ____
scoring_function = ____
# Create the tpot classifier
tpot_clf = TPOTClassifier(generations=____, population_size=____,
offspring_size=____, scoring=____,
verbosity=2, random_state=2, cv=2)
# Fit the classifier to the training data
____.____(____, ____)
# Score on the test set
print(____.____(____, ____))