5. Wie schätzt man variierende Slopes und Cross-Level Interaktionen?

Themenüberblick

Die Fragestellung für dieses Teils lautet: Wie schätzt man variierende Slopes und Cross-Level Interaktionen?

Und daran anschließend: Wie findet man das eigentlich das passende Modell für die Mehrebenenregression? Welche der Varianten ist am Ende die angemessene?

Im vorigen Teil 4 haben wir das einfache Varying Intercept Modell geschätzt. Wir haben Prädiktoren auf Ebene 1 und 2 berücksichtigt und die Fixed Effects und die Random Effects interpretiert.

In diesem Teil wird es darum gehen, wie man das passende Modell aus den möglichen Varianten findet. Dazu erweitern wir das Varying Intercept Modell zunächst um einen Varying Slope und danach um eine Cross Level Interaktion.

Wir schauen dann, anhand welcher Kriterien wir entscheiden können, welches der Modelle, das richtige ist.

Die konkreten Lernziele sind, dass Sie…

  • Modelle mit variierenden Slopes und Cross Level Interaktionen…
    • als Mehrebenengleichung formulieren können.
    • in R umsetzen können.
  • Verschiedene empirische Modelle miteinander vergleichen können und entscheiden können, welche Modellvariante die passende ist.

Dazu wechseln wir nun zu R.

Variierende Intercepts und variierende Slopes

Bevor wir mit dem neuen Modell loslegen, führen Sie bitte das komplette RScript zu Video 4 aus (RScript_mreg4.R bei den Ressourcen). Mit der source()-Funktion können Sie das direkt aus R heraus laufen lassen.

source("./Ressourcen/RScript_mreg4.R") #Pfad zur Datei ggf. anpassen

Legen wir los… Unsere erste Forschungsfrage lautet ja:

Welchen Einfluss hat Bildung auf politisches Vertrauen?

Im letzten Video haben das Grundmodell mit variierenden Intercepts geschätzt. Und eine vorläufige Antwort auf die Forschungsfrage war: Bildung hat auf Individualebene einen negativen Effekt auf politisches Vertrauen.

Aber: Wir haben ja bereits gesehen, dass der datengenerierende Prozess kontextabhängig ist. So könnte es auch sein, dass der Effekt der Variable bildung nicht in allen Ländern gleich wirkt!

Es wäre ja denkbar, dass der negative Effekt in manchen Ländern stärker und in anderen schwächer ausfällt.

Genau das können wir mit eine Varying Intercept, Varying Slope Modell testen.

Das Varying Intercept, Varying Slope Modell wird manchmal auch Random Intercept, Random Slope Modell genannt.

Die Idee ist, dass der Effekt eines Ebene 1 Prädiktors zwischen den Kontexteinheiten variieren darf.

Was heißt das für unser Mehrebenenmodell?

Dieses Modell ist die Formel unseres Varying Intercept Modells:

\(y_{ij} = \beta_{0j} +\) \(\beta_{1}\) \(x_{1ij} + \beta_{2}x_{2ij} + \beta_{3}x_{3ij} + \beta_{4}x_{4ij} + r_{ij}\)

mit

\(\beta_{0j} = \gamma_{00} + \gamma_{01j} + u_{0j}\)

Wenn wir jetzt den Slope \(\beta_{1}\) variieren lassen wollen, ergänzen wir zunächst einen Index \(j\), also \(\beta_{1}\)\(_{j}\).

Außerdem müssen wir eine Regressionsgleichung für diesen variierenden Slope ergänzen.

\(y_{ij} = \beta_{0j} +\) \(\beta_{1}\)\(_{j}\) \(x_{1ij} + \beta_{2}x_{2ij} + \beta_{3}x_{3ij} + \beta_{4}x_{4ij} + r_{ij}\)

mit

\(\beta_{0j} = \gamma_{00} + \gamma_{01j} + u_{0j}\)

und jetzt zusätzlich

\(\beta_{1j} = \gamma_{10} + u_{1j}\)

Sie erkennen: die Form ist analog zur Gleichung des variierenden Intercepts. \(\gamma_{10}\) ist der Ebene 2 Intercept, also der durchschnittliche Effekt - der fixed Effect - für den Ebene 1 Bildungseffekt \(\beta_{1j}\).

Und das Residuum \(u_{1j}\) enthält die Varianz, also die Streuung der länderspezifischen Bildungseffekte um den Wert \(\gamma_{10}\).

Im Unterschied zur Gleichung für den variierenden Intercept, haben wir hier noch keine Determinanten für den variierenden Slope in der Gleichung. Das kommt später.

Das setzen wir nun auch in der lmer()-Formel in R um:

In der Klammer haben wir bisher gesagt: “Lasse den Intercept 1 variieren nach cntry”.

Das ergänzen wir so, dass nun auch bildung nach cntry variieren darf.

library(lmerTest) 
mreg3 <- lmer(pol_vertrauen ~ 1 + bildung + 
                responsivitaet + zufr_wirtschaft + soz_vertrauen + 
                korruption +
                (1 + bildung | cntry),  
              data=ess)

Leider passiert es immer wieder, dass Mehrebenenmodelle wenn sie komplexer werden, eine Fehlermeldung oder Warnung auswerfen weil das Modell nicht konvergiert sei.

Das muss zunächst nichts Schlimmes bedeuten. Meist liegt es daran, dass das Modell eine fehlerhafte oder unsinnige Spezifikation enthält.

Ein anderer Grund kann sein, dass der der Algorithmus, der die passenden Modellparameter sucht - sagen wir es mal untechnisch - sich verläuft.

Dieser Optimizer-Algorithmus könnte dann, wenn wir ihm mehr Versuche geben, doch noch zum Ziel finden, oder wir wählen einen anderen Optimizer aus.

Das sind aber wirklich fortgeschrittene Themen. Daher präsentiere ich hier nur eine Lösung und verweise auf eine weiterführende Quelle zur Funktion allFit() und generell auf die ausgezeichnete Hilfe, die man auf Stackoverflow.com findet.

Als simple Lösung in unserem Beispiel, wähle ich einen alternativen Optimizer. Dazu ergänze ich den lmer()-Aufruf um ein control Argument:

mreg3 <- lmer(pol_vertrauen ~ 1 + bildung + 
                responsivitaet + zufr_wirtschaft + soz_vertrauen + 
                korruption +
                (1 + bildung | cntry),  
              data=ess,
              control=lmerControl(optimizer="bobyqa"))

Jetzt konvergiert das Modell und wir rufen wir die Ergebnisse auf:

summary(mreg3)
Linear mixed model fit by REML. t-tests use Satterthwaite's method [
lmerModLmerTest]
Formula: pol_vertrauen ~ 1 + bildung + responsivitaet + zufr_wirtschaft +  
    soz_vertrauen + korruption + (1 + bildung | cntry)
   Data: ess
Control: lmerControl(optimizer = "bobyqa")

REML criterion at convergence: 154548

Scaled residuals: 
   Min     1Q Median     3Q    Max 
-4.167 -0.657  0.009  0.647  5.398 

Random effects:
 Groups   Name        Variance Std.Dev. Corr
 cntry    (Intercept) 0.13072  0.3616       
          bildung     0.00237  0.0487   0.38
 Residual             2.77720  1.6665       
Number of obs: 39998, groups:  cntry, 25

Fixed effects:
                   Estimate  Std. Error          df t value            Pr(>|t|)
(Intercept)         4.14202     0.18685    23.93926   22.17 <0.0000000000000002
bildung            -0.03305     0.01099    24.15529   -3.01              0.0061
responsivitaet      0.84274     0.01142 39980.96092   73.80 <0.0000000000000002
zufr_wirtschaft     0.31316     0.00439 39829.10499   71.35 <0.0000000000000002
soz_vertrauen       0.21039     0.00499 39978.82048   42.15 <0.0000000000000002
korruption         -0.00648     0.00515    23.33301   -1.26              0.2212
                   
(Intercept)     ***
bildung         ** 
responsivitaet  ***
zufr_wirtschaft ***
soz_vertrauen   ***
korruption         


---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Correlation of Fixed Effects:
            (Intr) bildng rspnsv zfr_wr sz_vrt
bildung      0.142                            
responsivtt -0.017 -0.076                     
zfr_wrtschf -0.034 -0.006 -0.241              
soz_vertran -0.031 -0.047 -0.140 -0.230       
korruption  -0.921 -0.013  0.018  0.038  0.035

Wir sehen nun bei den Random Effects, dass eine neue Zeile hinzugekommen ist: der Random Effect für Bildung. Dessen Varianz liegt bei \(0.002\). Was nun außerdem hinzugekommen ist, ist diese letzte Spalte. Sie berichtet, wie stark der Random Slope für Bildung mit dem Random Intercept korreliert. Wir sehen also, daas in Ländern mit im Schnitt höherem politischen Vertrauen der Effekt von Bildung im höher ist als in Ländern mit niedrigem politischem Vertrauen.

Der Beitrag des Random Effect für Bildung an der Gesamtvarianz ist mit einer Varianz von nur \(0.002\) recht gering. Bevor wir das Modell also inhaltlich interpretieren, müssen wir prüfen, ob dieser variierende Slope tatsächlich gerechtfertigt ist. Oder anders ausgedrückt: Ist die Annahme eines zwischen den Ländern variierenden Regressionskoeffizienten für Bildung überhaupt empirisch haltbar?

Was uns also interessiert ist, ob wir überhaupt einen signifikanten Random Effect für Bildung haben. Oder ob dem datengenerierenden Prozess nicht eher ein einheitlicher Bildungseffekt zu Grunde liegt.

Um das festzustellen prüfen wir, ob das Modell mit dem variierenden Intercept - mreg3- besser zu den Daten passt, als das Modell ohne diesen variierenden Intercept (Modell mreg2).

Modellvergleich mittels Anova

Üblicherweise vergleichen wir zwei Modelle mit der anova()-Funktion.

Die Anova testet die Nullhypothese, dass die beiden Modelle gleich gut oder schlecht zu den Daten passen. Ist der Test signifikant, wird die Nullhypothese also zurückgewiesen, wissen wir, dass das eine Modell eine bessere Anpassung an die Daten hat.

Werden zwei OLS Modelle verglichen, basiert die Anova auf einem F-Test der Fehlerqaudrate der beiden Modelle.

Für Modelle die auf einem Maximum Likelihood Schätzer basieren- z.B. bei der logistischen Regression, aber auch das Mehrebenenmodell - dann nutzt die Anova einen \(\chi^2\)-Test (Chi quadrat) auf Basis der Likelihood-Funktion der Modelle.

Leider ist das bei Mehrebenenmodellen nicht ohne größere Vorsicht möglich.

Und um das zu verstehen müssen wir kurz über den Schätzalgorithmus sprechen.

Bisher haben wir unsere Mehrebenenregression mit der lmer()-Funktion geschätzt, ohne explizit anzugeben, welcher Schätzer genutzt werden soll.

lmer() nutzt dabei als Voreinstellung automatisch den sogenannten REML-Schätzer (Restricted Maximum Likelihood).

Der lmer() Befehl ergänzt also implizit REML=TRUE:

# Nicht ausführen
mreg <- lmer(y ~ 1 + x + (1 + grp), 
             data = df, 
             REML = TRUE)

Wenn man REML=FALSE angibt, wird statt des REML-Schätzers der einfache ML-Schätzer genutzt.

Der ML-Schätzer wählt dabei diejenigen Werte für die Modellparameter, bei denen die Wahrscheinlichkeit (Likelihood) am größten ist, die Werte der Daten zu beobachten. Wähle das Modell, beim dem \(p(Daten|Modell)\) am größten ist.

Dabei können aber die Varianzparameter unterschätzt werden.

Beim REML-Schätzer werden nur die Parameter der Varianzkomponenten, also die Random Effects des Modells über den ML-Schätzer gewählt. Die anderen Modellparamter werden als gegeben angenommen (sie werden zuvor automatisch separat geschätzt). Die Schätzung des REML Schätzers ist also restricted auf die Varianzkomponenten. Und soll dadurch e eine unverzerrte Schätzung der Varianzkomponenten erlauben.

ABER: Je größer die SP, desto weniger ist die Schätzung der Varianzkomponenten mittels ML-Schätzer verzerrt. Diese Eigenschaft ist dann wichtig, wenn Sie folgende Fehlermeldung bei der Schätzung ihres Modells erhalten. Dann lässt sich das Modell nicht mit dem REML Schätzer berechnen. Bei ausreichend größeren Fallzahlen können Sie versuchen, das Modell mit dem ML Schätzer zu fitten, also REML=FALSE.

OK, kurz durchatmen, dann kommen wir zurück zur einfachen Anwendung.

Kommen wir zurück zum Modellvergleich mit der Anova.

Durch die Eigenschaft der REML-Schätzung darf die log-Likelihood zwischen Modellen mit unterschiedlichen fixed Effects nicht verglichen werden - und damit darf auch die Devianz, also die Differenz zwischen zwei Modellen, nicht berechnet werden. Diese ist aber die Grundlage für den \(\chi^2\)-Test der Anova.

Sollen zwei Modelle mit unterschiedlichen fixed Effects verglichen werden, müssen diese Modelle mit dem ML-Schätzer gefittet sein.

Die Modelle mreg1 und mreg2 sind zwei Modelle, die sich nur hinsichtlich der fixed Effects unterscheiden. Aber wir hatten sie mit dem REML-Schätzer gefittet, da dieser ja die default Einstellung ist.

Was passiert, wenn wir mit diesen Modellen die Anova rechnen?

# Per default werden die Modelle mit ML refittet:
anova(mreg1, mreg2)
Data: ess
Models:
mreg1: pol_vertrauen ~ 1 + bildung + responsivitaet + zufr_wirtschaft + soz_vertrauen + (1 | cntry)
mreg2: pol_vertrauen ~ 1 + bildung + responsivitaet + zufr_wirtschaft + soz_vertrauen + korruption + (1 | cntry)
      npar    AIC    BIC logLik deviance Chisq Df Pr(>Chisq)  
mreg1    7 154581 154641 -77284   154567                      
mreg2    8 154578 154647 -77281   154562  4.71  1       0.03 *
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
#anova(mreg1, mreg2, refit=T)

Die Anova schätzt automatisch beide Modelle erneut mit dem ML Schätzer. So können wir also direkt die Anova interpretieren:

Modell 2 ist also signifikant besser an die Daten angepasst als Modell 1.

Und was ist mit dem Vergleich von mreg2 und mreg3? Hier unterscheiden sich die random Effects, die fixed Effects sind aber identisch spezifiziert. Wir müssen also beide Modelle mit dem REML-Schätzer vergleichen.

Auch hier würde die Anova mit dem ML-Schätzer refitten. Dann dürften wir die Anova aber nicht interpretieren. Wir müssen der Anova also sagen, dass sie nicht refitten soll: das geschieht mit dem Argument refit=FALSE:

anova(mreg2, mreg3, refit=F)
Data: ess
Models:
mreg2: pol_vertrauen ~ 1 + bildung + responsivitaet + zufr_wirtschaft + soz_vertrauen + korruption + (1 | cntry)
mreg3: pol_vertrauen ~ 1 + bildung + responsivitaet + zufr_wirtschaft + soz_vertrauen + korruption + (1 + bildung | cntry)
      npar    AIC    BIC logLik deviance Chisq Df        Pr(>Chisq)    
mreg2    8 154624 154693 -77304   154608                               
mreg3   10 154568 154654 -77274   154548    60  2 0.000000000000093 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Auch hier sehen wir, dass die log-Likelihood im zweiten Modell geringer ist - also besser ist - und zwar so viel, dass der \(\chi^2\)-Test bei zwei Freiheitsgraden signifikant ist. mreg3 ist also signifikant besser alsmreg2 - wir haben also signifikante Varianz im random Slope für Bildung und können das Modell nun auch inhaltlich interpretieren!

Interpretation des Varying Slope Modells

Der Fixed Effect für Bildung sagt uns nun wie groß der durchschnittliche Bildungseffekt \(\gamma_{10}\) ist: \(-0.033\). Dieser Effekt ist signifikant. Also haben wir über alle Länder hinweg einen leicht negativen Effekt für Bildung.

Interessant ist nun aber, wie stark sich die Effekte zwischen den Länder unterscheiden. Denn: wir haben ja einen variierenden Effekt, dessen Varianz bei \(0.002\) liegt!

Mit der Funktion ranef() können wir uns Ausgeben lassen, wie stark die Länder vom durchschnittliche Bildungseffekt, dem fixed Effect \(\gamma_{10}\) abweichen:

ranef(mreg3)
$cntry
   (Intercept)  bildung
AT     -0.1319 -0.04009
BE      0.3412  0.01361
BG     -0.1306 -0.06326
CH      0.1159 -0.04039
CY     -0.0209 -0.07355
CZ     -0.3222 -0.03894
DE     -0.4280  0.01240
EE      0.1487  0.02992
ES     -0.3056  0.01687
FI      0.3602  0.04636
FR      0.2671  0.02568
GB     -0.2287  0.06221
HR     -0.4182 -0.02260
HU      0.7530 -0.01809
IE     -0.0763  0.02471
IT      0.4765  0.04142
LT     -0.2662 -0.02655
LV     -0.2626 -0.00636
NL      0.5076  0.05266
NO      0.2414  0.02780
PL     -0.4717 -0.07547
PT     -0.1912  0.04102
SE      0.3093  0.07651
SI     -0.5424 -0.04742
SK      0.2760 -0.01844

with conditional variances for "cntry" 

Tatsächlich reichen diese Abweichungen von \(-0.075\) bis \(0.077\).

Um das anschaulicher zu machen, addieren wir den fixed Effect für Bildung.

re_bildung <- ranef(mreg3)$cntry[,2]
names(re_bildung) <- row.names(ranef(mreg3)$cntry)

#re_bildung+fixef(mreg2)[2]
sort(re_bildung+fixef(mreg2)[2])
       PL        CY        BG        SI        CH        AT        CZ        LT 
-0.100462 -0.098543 -0.088252 -0.072407 -0.065380 -0.065079 -0.063930 -0.051539 
       HR        SK        HU        LV        DE        BE        ES        IE 
-0.047593 -0.043436 -0.043086 -0.031350 -0.012589 -0.011378 -0.008124 -0.000284 
       FR        NO        EE        PT        IT        FI        NL        GB 
 0.000690  0.002807  0.004929  0.016026  0.016428  0.021372  0.027672  0.037216 
       SE 
 0.051515 

Addiert man also zu den jeweiligen random Effects für Bildung je Land den fixed Effect für Bildung \(\gamma_{10}\) zeigt sich, das der variierende Slope für Bildung \(\beta_{1j}\) von \(-0.1\) in Polen PL bis \(0.052\) in Schweden SE reicht.

Cross Level Interaktionen

Wir sehen also, der Effekt von Bildung variiert also zwischen den Ländern: in manchen wirkt Bildung negativ, in anderen Ländern aber auch positiv auf das politische Vertrauen!

Die Frage die sich hier stellt: Warum ist das so? Und wir haben ja schon eine Hypothese, denn als zweite Forschungsfrage hatten wir formuliert:

Wie beeinflusst Korruption die Wirkung von Bildung auf politisches Vertrauen?

Könnte es also sein, dass das Ausmaß an Korruption in einem Land diese Variation des Random Slope erklären kann?

Der Effekt des Individualmerkmals Bildung ist ein Effekt auf Ebene 1 - auch wenn die Größe dieses Ebene 1 Effektes zwischen den Ländern variiert.

Korruption messen wir dabei als Kontextmerkmal auf Ebene 2. Wir haben für jedes Land einen Wert für den Transparency International Corruption Perception Index.

Wenn diese Ebene 2 Variable also einen Effekt auf Ebene 1 beeinflusst ist das ein sogenannter Cross-Level Interaktionseffekt. Interaktion deshalb, weil ein Effekt einen anderen Effekt beeinflusst, also mit ihm interagiert.

Wir ergänzen nun in der Regressionsgleichung diesen Ebene 2 Prädiktor für den variierenden Slope von Bildung:

\(y_{ij} = \beta_{0j} + \beta_{1j}x_{1ij} + \beta_{2}x_{2ij} + \beta_{3}x_{3ij} + \beta_{4}x_{4ij} + r_{ij}\)

mit

\(\beta_{0j} = \gamma_{00} + \gamma_{01j} + u_{0j}\)

und jetzt zusätzlich

\(\beta_{1j} = \gamma_{10} +\) \(\gamma_{11j}\) \(+u_{1j}\)

\(\gamma_{11j}\) ist dabei der Regressionskoeffizient der Variable korruption, also der Einfluss der Variable korruption auf den variierende Slope der Variable Bildung \(\beta_{1j}\).

Wenn \(\gamma_{11j}\) tatsächlich einen Erklärungsbeitrag für die Variation des random Effects der Variable Bildung hat, dann müsste auch die Residualvarianz \(u_{1j}\) geringer werden.

Sehen wir uns das im Modell an:

Wir schätzen also unser neues Modell, und für die Cross-Level Interaktion müssen wir nur einen ganz regulären Interaktionseffekt in der Formel spezifizieren. R weiß dann von ganz alleine, dass die eine Variable auf Ebene 1 ist und die andere Variable auf Ebene 2.

Wir schätzen das Modell.

mreg4 <- lmer(pol_vertrauen ~ 1 + bildung + 
                responsivitaet + zufr_wirtschaft + soz_vertrauen + 
                korruption +
                bildung:korruption + 
                (1 + bildung | cntry),  
              data=ess)

Dann schauen wir mit der Anova, ob das Modell signifikant besser an die Daten angepasst ist als das vorige. Da sich die fixierten Effekte verändert haben, müssen wir die ML-basierte Anova nutzen.

Wir schauen zuerst auf die Anova, da Wenn das nicht der Fall ist, würden wir gar nicht erst das Modell inhaltlich interpretieren, sondern würden das Modell ohne Cross-Level Interaktion als das letztlich am besten passende Mehrebenenmodell berichten und interpretieren. In dem Fall würde alsi Korruption nicht den Effekt von Bildung moderieren.

anova(mreg3, mreg4, refit=T)
Data: ess
Models:
mreg3: pol_vertrauen ~ 1 + bildung + responsivitaet + zufr_wirtschaft + soz_vertrauen + korruption + (1 + bildung | cntry)
mreg4: pol_vertrauen ~ 1 + bildung + responsivitaet + zufr_wirtschaft + soz_vertrauen + korruption + bildung:korruption + (1 + bildung | cntry)
      npar    AIC    BIC logLik deviance Chisq Df Pr(>Chisq)   
mreg3   10 154524 154610 -77252   154504                       
mreg4   11 154517 154612 -77247   154495   8.9  1     0.0028 **
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Aber wir sehen, das Modell ist signifikant besser. Also ist dieses Modell dasjenige, was am Ende am besten an die Daten angepasst ist und welches Interpretiert wird.

performance::r2(mreg4)
# R2 for Mixed Models

  Conditional R2: 0.471
     Marginal R2: 0.446

Und das konditionale \(R^2\) liegt bei \(0.471\).

Das das Modell tatsächlich besser zu den Daten passt, können wir auch die Ergebnisse interpretieren:

summary(mreg4)
Linear mixed model fit by REML. t-tests use Satterthwaite's method [
lmerModLmerTest]
Formula: pol_vertrauen ~ 1 + bildung + responsivitaet + zufr_wirtschaft +  
    soz_vertrauen + korruption + bildung:korruption + (1 + bildung |  
    cntry)
   Data: ess

REML criterion at convergence: 154553

Scaled residuals: 
   Min     1Q Median     3Q    Max 
-4.167 -0.657  0.009  0.646  5.398 

Random effects:
 Groups   Name        Variance Std.Dev. Corr
 cntry    (Intercept) 0.12586  0.3548       
          bildung     0.00158  0.0398   0.34
 Residual             2.77719  1.6665       
Number of obs: 39998, groups:  cntry, 25

Fixed effects:
                       Estimate   Std. Error           df t value
(Intercept)            4.305159     0.192738    23.148932   22.34
bildung                0.040085     0.024976    22.173418    1.60
responsivitaet         0.842420     0.011419 39979.720725   73.77
zufr_wirtschaft        0.313085     0.004389 39829.107658   71.34
soz_vertrauen          0.210532     0.004992 39979.245989   42.18
korruption            -0.011385     0.005362    23.222371   -2.12
bildung:korruption    -0.002205     0.000704    23.364165   -3.13
                              Pr(>|t|)    
(Intercept)        <0.0000000000000002 ***
bildung                         0.1227    
responsivitaet     <0.0000000000000002 ***
zufr_wirtschaft    <0.0000000000000002 ***
soz_vertrauen      <0.0000000000000002 ***
korruption                      0.0446 *  
bildung:korruption              0.0046 ** 
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Correlation of Fixed Effects:
            (Intr) bildng rspnsv zfr_wr sz_vrt krrptn
bildung      0.283                                   
responsivtt -0.020 -0.049                            
zfr_wrtschf -0.034 -0.006 -0.241                     
soz_vertran -0.027 -0.010 -0.140 -0.230              
korruption  -0.929 -0.264  0.022  0.038  0.030       
bldng:krrpt -0.258 -0.926  0.016  0.003 -0.012  0.280

Wir sehen bei den fixed Effects nun einen signifikanten Interaktionseffekt von \(-0.002\). Das bedeutet, das mit Zunahme der Korruption um einen Skalenpunkt verändert sich der Effekt von Bildung um den Faktor \(-0.002\). Je höher die Korruption ist, desto negativer wird der Effekt von Bildung. Und umgekehrt: je weniger Korruption in einem Land herrscht, desto positiver wird der Effekt von Bildung auf politisches Vertrauen.

Da es sich bei Interaktionseffekten um bedingte Effekte handelt, dürfen wir auch den Haupteffekt von Bildung nur in Abhängigkeit der Korruptionsvariable interpretieren - der Haupteffekt von Bildung ist der Effekt den man beobachtet, wenn die Interaktionsvariable den Wert \(0\) hat. Also: in einem ein Land, das keine Korruption hat, bzw. das sehr sauber ist, hat Bildung keinen signifikanten Effekt auf politisches Vertrauen.

Man kann auch sagen: in Ländern mit hoher Korruption sorgt hohe Bildung dafür, dass man den politischen Eliten weniger Vertraut. In Ländern mit geringer/keiner Korruption hat Bildung keinen Effekt auf politisches Vertrauen.

Schluss

Wir haben unser Mehrebenenmodell um einen variierenden Slope ergänzt und haben gesehen, dass ein Teil der Unterschiede in der Varianz dieses random Effects mit einer Cross-Level Interaktion erklärt werden kann.

Im nächsten Teil 6 werden wir uns anschauen, wie man die Ergebnisse der unterschiedlichen Varianten der Mehrebenenregression am besten aufbereitet und tabellarisch und grafisch darstellt.

Noch ein Hinweis: Wichtig ist, dass man nicht einfach beliebige Ebene 1 Prädiktoren variieren lässt. Nur wo es eine Relevanz für die Forschungsfrage hat und nur dann, wenn auch die Theorie eine begründete Hypothese zulässt, nur dann werden variierende Slopes im Modell spezifiziert.

Aufgabe

  • Prüfen Sie zu einer eigenen Fragestellung, ob ein variierender Slope das Modell signifikant verbessert.
  • Prüfen Sie zur eigenen Fragestellung, ob eine Cross-Level Interaktion vorliegt.

Lernzielabgleich

Haben Sie alles mitgenommen? Fragen Sie sich selbst, ob Sie die folgenden Lernziele erreicht haben:

  • Sie können Modelle mit variierenden Slopes und Cross Level Interaktionen als Mehrebenengleichung formulieren.
  • Sie können Modelle mit variierenden Slopes und Cross Level Interaktionen in R umsetzen können.
  • Sie können verschiedene empirische Modelle miteinander vergleichen und entscheiden, welche Modellvariante die passende ist.