CommencerCommencer gratuitement

Sortie de régression : exemple I

Le code suivant présente deux méthodes équivalentes pour calculer les éléments les plus importants de la sortie d’un modèle linéaire. Rappelez-vous que la valeur p est la probabilité d’observer des données au moins aussi extrêmes que celles observées, sous l’hypothèse nulle. Comme pour l’inférence dans d’autres contextes, vous aurez besoin de la distribution d’échantillonnage de la statistique (ici, la pente) en supposant que l’hypothèse nulle est vraie. Vous générerez cette distribution nulle dans les chapitres suivants, mais pour l’instant, supposez qu’elle est correcte. Notez également que les erreurs standards des estimations de la pente et de l’ordonnée à l’origine décrivent la variabilité de ces estimations.

Cet exercice fait partie du cours

Inférence pour la régression linéaire en R

Afficher le cours

Instructions

  • Chargez le package mosaicData et les données RailTrail. Les données RailTrail contiennent des informations sur le nombre d’utilisateurs d’un sentier à Florence (MA) et la météo de chaque jour.
  • À l’aide de la fonction lm(), ajustez un modèle linéaire régressant le volume de cyclistes sur la hightemp du jour. Assignez la sortie de lm() à l’objet ride_lm.
  • Utilisez la fonction summary() sur la sortie du modèle linéaire pour voir l’analyse inférentielle (y compris la valeur p pour la pente).
  • De plus, appliquez tidy() à la sortie du modèle linéaire pour la rendre plus facile à utiliser par la suite.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Load the mosaicData package and the RailTrail data
library(mosaicData)
data(RailTrail)

# Fit a linear model
ride_lm <- ___

# View the summary of your model
___

# Print the tidy model output
___
Modifier et exécuter le code