or
Este exercício faz parte do curso
Neste capítulo, apresentamos o conceito de regressão sob a perspectiva de Machine Learning. Vamos apresentar o método fundamental de regressão: a regressão linear. Vamos mostrar como ajustar um modelo de regressão linear e como fazer previsões a partir desse modelo.
Agora que aprendemos a ajustar modelos básicos de regressão linear, vamos aprender a avaliar o desempenho dos nossos modelos. Vamos revisar a avaliação de um modelo de forma gráfica e ver duas métricas básicas para modelos de regressão. Também vamos aprender a treinar um modelo que funcione bem no mundo real, não só nos dados de treino. Embora demonstremos essas técnicas usando regressão linear, todos esses conceitos se aplicam a modelos ajustados com qualquer algoritmo de regressão.
Antes de avançar para técnicas de regressão mais sofisticadas, vamos analisar outros pontos de modelagem: como modelar com entradas categóricas, interações entre variáveis e quando pode ser interessante transformar entradas e saídas antes de modelar. Embora técnicas de regressão mais avançadas lidem automaticamente com parte desses aspectos, é importante conhecê-los para entender quais métodos lidam melhor com cada questão — e quais você ainda precisa tratar manualmente.
Exercício atual
Agora que dominamos os modelos lineares, vamos explorar técnicas para modelar situações que não atendem aos pressupostos de linearidade. Isso inclui prever probabilidades e frequências (valores entre 0 e 1); prever contagens (valores inteiros não negativos e taxas associadas); e respostas com relação não linear, mas aditiva, às entradas. Esses algoritmos são variações do modelo linear padrão.
Neste capítulo, vamos ver algoritmos de modelagem que não assumem linearidade ou aditividade e que conseguem aprender tipos limitados de interações entre variáveis de entrada. Esses algoritmos são métodos baseados em árvores que funcionam combinando conjuntos de árvores de decisão aprendidas a partir dos dados de treino.