ComeçarComece de graça

Tirando o máximo do AdaBoost

Como você viu, para prever a receita de filmes, o AdaBoost oferece os melhores resultados quando usa árvores de decisão como estimador base.

Neste exercício, você vai definir alguns parâmetros para extrair ainda mais desempenho. Em particular, usará uma taxa de aprendizado menor para fazer uma atualização mais suave dos hiperparâmetros. Portanto, o número de estimadores deve aumentar. Além disso, as seguintes variáveis foram adicionadas aos dados: 'runtime', 'vote_average' e 'vote_count'.

Este exercício faz parte do curso

Métodos de Ensemble em Python

Ver curso

Instruções do exercício

  • Construa um AdaBoostRegressor usando 100 estimadores e uma taxa de aprendizado de 0.01.
  • Ajuste reg_ada ao conjunto de treino e calcule as previsões no conjunto de teste.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Build and fit an AdaBoost regressor
reg_ada = ____(____, ____, random_state=500)
reg_ada.fit(X_train, y_train)

# Calculate the predictions on the test set
pred = ____

# Evaluate the performance using the RMSE
rmse = np.sqrt(mean_squared_error(y_test, pred))
print('RMSE: {:.3f}'.format(rmse))
Editar e executar o código