Ajuster une régression linéaire à pentes parallèles
Dans le cours Introduction to Regression with statsmodels in Python, vous avez appris à ajuster des modèles de régression linéaire avec une seule variable explicative. Dans bien des cas, se limiter à une seule variable explicative réduit la précision des prédictions. Pour vraiment maîtriser la régression linéaire, vous devez savoir ajuster des modèles avec plusieurs variables explicatives.
Le cas où l’on dispose d’une variable explicative numérique et d’une variable explicative catégorielle est parfois appelé une régression linéaire « pentes parallèles » en raison de la forme des prédictions — nous y reviendrons dans l’exercice suivant.
Ici, vous allez revenir sur le jeu de données de l’immobilier à Taïwan. Rappelez-vous la signification de chaque variable.
| Variable | Signification |
|---|---|
dist_to_mrt_station_m |
Distance à la station de métro (MRT) la plus proche, en mètres. |
n_convenience |
Nombre de supérettes accessibles à pied. |
house_age_years |
Âge du logement, en années, regroupé en 3 catégories. |
price_twd_msq |
Prix au mètre carré, en nouveaux dollars taïwanais par mètre carré. |
taiwan_real_estate est disponible.
Cet exercice fait partie du cours
Régression intermédiaire avec statsmodels en Python
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Import ols from statsmodels.formula.api
____
# Fit a linear regression of price_twd_msq vs. n_convenience
mdl_price_vs_conv = ____
# Print the coefficients
print(____)