Ajuste Genético de Hiperparâmetros com TPOT
Você vai fazer um exemplo simples de ajuste genético de hiperparâmetros. O TPOT é uma biblioteca muito poderosa, com muitos recursos. Nesta lição, você está apenas arranhando a superfície, mas é altamente recomendado explorar por conta própria depois.
Este é um exemplo bem pequeno. Na prática, o TPOT foi projetado para rodar por muitas horas para encontrar o melhor modelo. Você teria uma população e um número de descendentes muito maiores, além de centenas de gerações para chegar a um bom modelo.
Você vai criar o estimador, ajustá-lo aos dados de treino e depois avaliar no conjunto de teste.
Para este exemplo, queremos usar:
- 3 gerações
- 4 no tamanho da população
- 3 descendentes em cada geração
- accuracy para a métrica de avaliação
Um random_state igual a 2 foi definido para garantir consistência nos resultados.
Este exercício faz parte do curso
Ajuste de Hiperparâmetros em Python
Instruções do exercício
- Atribua aos parâmetros de
tpot_clfos valores descritos no contexto. - Crie o classificador
tpot_clfcom os parâmetros corretos. - Ajuste o classificador aos dados de treino (
X_trainey_trainestão disponíveis no seu workspace). - Use o classificador ajustado para avaliar no conjunto de teste (
X_testey_testestão disponíveis no seu workspace).
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Assign the values outlined to the inputs
number_generations = ____
population_size = ____
offspring_size = ____
scoring_function = ____
# Create the tpot classifier
tpot_clf = TPOTClassifier(generations=____, population_size=____,
offspring_size=____, scoring=____,
verbosity=2, random_state=2, cv=2)
# Fit the classifier to the training data
____.____(____, ____)
# Score on the test set
print(____.____(____, ____))