Sortie de régression : exemple I
Le code suivant présente deux méthodes équivalentes pour calculer les éléments les plus importants de la sortie d’un modèle linéaire. Rappelez-vous que la valeur p est la probabilité d’observer des données au moins aussi extrêmes que celles observées, sous l’hypothèse nulle. Comme pour l’inférence dans d’autres contextes, vous aurez besoin de la distribution d’échantillonnage de la statistique (ici, la pente) en supposant que l’hypothèse nulle est vraie. Vous générerez cette distribution nulle dans les chapitres suivants, mais pour l’instant, supposez qu’elle est correcte. Notez également que les erreurs standards des estimations de la pente et de l’ordonnée à l’origine décrivent la variabilité de ces estimations.
Cet exercice fait partie du cours
Inférence pour la régression linéaire en R
Instructions
- Chargez le package
mosaicDataet les donnéesRailTrail. Les donnéesRailTrailcontiennent des informations sur le nombre d’utilisateurs d’un sentier à Florence (MA) et la météo de chaque jour. - À l’aide de la fonction
lm(), ajustez un modèle linéaire régressant levolumede cyclistes sur lahightempdu jour. Assignez la sortie delm()à l’objetride_lm. - Utilisez la fonction
summary()sur la sortie du modèle linéaire pour voir l’analyse inférentielle (y compris la valeur p pour la pente). - De plus, appliquez
tidy()à la sortie du modèle linéaire pour la rendre plus facile à utiliser par la suite.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Load the mosaicData package and the RailTrail data
library(mosaicData)
data(RailTrail)
# Fit a linear model
ride_lm <- ___
# View the summary of your model
___
# Print the tidy model output
___