or
Diese Übung ist Teil des Kurses
Bayes’sche Modelle verbinden Vorwissen mit Erkenntnissen aus beobachteten Daten, um aktualisierte, posteriori Einsichten über einen Parameter zu gewinnen. In diesem Kapitel wiederholst du diese Bayes’schen Konzepte am grundlegenden Beta-Binomial-Modell für einen Anteilsparameter. Außerdem lernst du, wie du das rjags-Paket nutzt, um dieses Modell in R zu definieren, zu kompilieren und zu simulieren.
Das zweiparametrige Normal-Normal-Bayes-Modell liefert eine einfache Grundlage für Normal-Regressionsmodelle. In diesem Kapitel entwickelst du das Normal-Normal-Modell und definierst, kompilierst und simulierst es mit rjags. Außerdem wirfst du einen Blick hinter die Kulissen der Markow-Ketten-Mechanik, die die rjags-Simulation antreibt.
In diesem Kapitel erweiterst du das Normal-Normal-Modell zu einem einfachen Bayes’schen Regressionsmodell. In diesem Rahmen erforschst du, wie du rjags-Simulationsergebnisse für die posteriori Inferenz nutzt. Konkret erstellst du posteriori Schätzungen der Regressionsparameter anhand posteriorer Mittelwerte und glaubwürdiger Intervalle, prüfst Hypothesen mit posterioren Wahrscheinlichkeiten und konstruierst posteriori Vorhersageverteilungen für neue Beobachtungen.
In diesem letzten Kapitel verallgemeinerst du das einfache Normal-Regressionsmodell für die Anwendung in breiteren Kontexten. Du beziehst kategoriale Prädiktoren ein, entwickelst ein multivariates Regressionsmodell mit zwei Prädiktoren und erweiterst diese Methodik schließlich auf Poisson-multivariate Regressionsmodelle für Zählvariablen.
Aktuelle Übung