or
Este exercício faz parte do curso
Neste capítulo, apresentamos o conceito de regressão sob a perspectiva de Machine Learning. Vamos apresentar o método fundamental de regressão: a regressão linear. Vamos mostrar como ajustar um modelo de regressão linear e como fazer previsões a partir desse modelo.
Agora que aprendemos a ajustar modelos básicos de regressão linear, vamos aprender a avaliar o desempenho dos nossos modelos. Vamos revisar a avaliação de um modelo de forma gráfica e ver duas métricas básicas para modelos de regressão. Também vamos aprender a treinar um modelo que funcione bem no mundo real, não só nos dados de treino. Embora demonstremos essas técnicas usando regressão linear, todos esses conceitos se aplicam a modelos ajustados com qualquer algoritmo de regressão.
Exercício atual
Antes de avançar para técnicas de regressão mais sofisticadas, vamos analisar outros pontos de modelagem: como modelar com entradas categóricas, interações entre variáveis e quando pode ser interessante transformar entradas e saídas antes de modelar. Embora técnicas de regressão mais avançadas lidem automaticamente com parte desses aspectos, é importante conhecê-los para entender quais métodos lidam melhor com cada questão — e quais você ainda precisa tratar manualmente.
Agora que dominamos os modelos lineares, vamos explorar técnicas para modelar situações que não atendem aos pressupostos de linearidade. Isso inclui prever probabilidades e frequências (valores entre 0 e 1); prever contagens (valores inteiros não negativos e taxas associadas); e respostas com relação não linear, mas aditiva, às entradas. Esses algoritmos são variações do modelo linear padrão.
Neste capítulo, vamos ver algoritmos de modelagem que não assumem linearidade ou aditividade e que conseguem aprender tipos limitados de interações entre variáveis de entrada. Esses algoritmos são métodos baseados em árvores que funcionam combinando conjuntos de árvores de decisão aprendidas a partir dos dados de treino.