Kritischer Blick auf datenreduzierende Verfahren zur Operationalisierung latenter Konstrukte

Operationalisierung latenter Konstrukte

Datenreduzierende Verfahren können eingesetzt werden, um latente Konstrukte zu operationalisieren. Diese Anwendung unterscheidet sich von dem Ziel, latente Konstrukte in den Daten zu identifizieren (wofür ebenfalls manche datenreduzierende Verfahren durchgeführt werden können).

Die Operationalisierung latenter Konstrukte erfolgt dadurch, dass Indikatoren für die Konstrukte zusammengefasst werden. Diese Zusammenfassung ist eine Informations- bzw. Datenreduktion.

Datenreduktion

Vor dem Hintergrund der Operationalisierung, d.h. der Messbarmachung latenter Konstrukte, könnte aber durchaus die Frage gestellt werden: Weshalb Datenreduktion und nicht die Verwendung der jeweiligen Indikatoren? Zwei starke Argumente sind:

  • Messfehlerreduktion: Wird ein latentes Konstrukt mit k Items gemessen, bedeutet dies, dass das Konstrukt k-mal gemessen wird. Da nach der klassischen Testtheorie der Messwert additiv aus dem ‚Wert‘ des latenten Konstrukts und einem Messfehler zusammengesetzt ist, und weiterhin der Erwartungswert des (zufälligen) Messfehlers Null ist, wird der Messfehler bei theoretisch unendlich vielen Messungen ausgemittelt. Mithin ist der Messfehler umso geringer, je größer die Anzahl k der Messinstrumente (Items) ist.
  • Modellierung: Insbesondere, wenn in einem theoretischen Modell das latente Konstrukt endogen modelliert wird, muss die entsprechende abhängige Variable, welches das Konstrukt repräsentiert, im Schätzmodell eben auch eine Variable sein. Aber auch wenn das latente Konstrukt auf der Seite der unabhängigen Variablen im Modell auftaucht, gibt es einige Gründe, weshalb hier nicht die jeweiligen Items separat verwendet werden sollten: einerseits das theoretische Argument (es geht eben um ein theoretisches Konstrukt). Andererseits ein schätztechnisches Argument: wenn die Items tatsächlich alle das latente Konstrukt messen, dann bestünde wohl ein Multikollinearitätsproblem (hohe Korrelation der Items untereinander) – welches wiederum eine verzerrte Schätzung der Standardfehler der Effekte bedeuten könnte. Dass sich die Effekte solcher Items überhaupt schätzen lassen, verdanken wir theoretisch dann nur den Messfehlern (da ansonsten – theoretisch – vollständige Multikollinearität vorliegen würde und eine Schätzung nicht mehr möglich wäre).

Problem der Konsistenz

Bei der Anwendung datenreduzierender Verfahren wird üblicherweise die interne Konsistenz unter dem Aspekt der Reliabilität überprüft. Dabei wird gewissermaßen ermittelt, wie erfolgreich die Messfehlerreduktion ist. Reliabilität ist ein Maß für die Reproduzierbarkeit der Messung eines stabilen Merkmals. In diesem Sinne bedeutet eine starke Konsistenz der Messung ihre hohe Reliabilität. Diese Konsistenz wird in der Regel durch Korrelationen der Items untereinander ausgedrückt, oder es wird ein Maß berechnet, welches auf diesen Korrelationen beruht.

Jedoch wird die (interne) Konsistenz der (Kriteriums-) Validität kaum überprüft. D.h. es wird nicht überprüft, ob die Items überhaupt dasselbe Konstrukt messen. Für diese Art der Einschätzung der Validität ist die Reliabilität notwendig, aber nicht hinreichend. Die Fehler, die mit einer geringen Validität assoziiert sind, sind systematische Operationalisierungsfehler. Dass die Fehler systematisch sind, bedeutet, dass es unerheblich ist, mit wie vielen Items das Konstrukt gemessen wird – die Fehler mitteln sich nicht aus, da ihr Erwartungswert nicht Null ist. Weiterhin handelt es sich nicht um Fehler, welche bei der Messung der Items entstehen – sondern das Item selbst ist quasi der Fehler, insofern es eben nicht oder zu einem relevanten Teil nicht nur das jeweilige Konstrukt misst.

Beispiele

Simulation

Es wird ein Daten-Set mit 1000 Beobachtungen simuliert. Zwei sehr hoch korrelierende (r=0.9952) Zufallsvariablen (float, uniform) – x1 und x2 – werden generiert. Eine weitere Zufallsvariable y (float, uniform) wird generiert, welche stark positiv mit x1 korreliert, jedoch stark negativ mit x2.

Im ersten Modell wird das Kriterium y mit den Indikatoren x1 und x2 erklärt. Das Schätzmodell ist OLS, SE durch bootstrap ermittelt, die Koeffizienten: b(x1)=0.9971 (SE=0.0704, p<0.001), b(x2)=-0.9995 (SE=0.0687, p<0.001). R²=0.2044.

Im zweiten Modell wird statt der Indikatoren ein Index (xind=x1+x2) als Prädiktor verwendet. Das Resultat: b(xind)=-0.0039 (SE=0.0031, p>0.1), R²=0.0013.

Obwohl die geradezu obszön starke Korrelation der Items (x1 und x2) suggeriert, dass beide Variablen das gleiche latente Konstrukt messen und insofern als Indikatoren für eben jenes Konstrukt fungieren können, zeigen die Modelle, dass es keineswegs so ist.

Daten: GRD (Schmidl, Bernd 2014)

4 Items der Berliner Social Support Skala (BSSS) sollen latentes Konstrukt ’soziale Unterstützung‘ messen. Die soziale Unterstützung wiederum dient als Prädiktor für Depression. Wir verwenden zwei Varianten der Datenreduktion:

  1. Faktorenanalyse reduziert hier 4 Items zu 1 Dimension

    Alle Items korrelieren signifikant positiv. Hauptkomponentenanalyse extrahiert 1 Komponente mit Eigenwert 2.0656, die Eigenwerte aller weiteren Komponenten sind <1. KMO=0.956, Bartlett Chi²=1010.631 (df=6, p<0.001), MSA für alle Items >0.5 .

  2. additive Indexbildung

    Cronbach Alpha=0.679

 

Tabelle: Korrelation der BSSS-Items
  Erh Wahr Beduerf
Wahr 0.3167    
Beduerf 0.2404 0.2415  
Suche 0.2225 0.4346 0.6210

Alle Korrelationen sind signifikant mit p<0.001 .

 

Tabelle: Faktorladungen für extrahierte Komponenten
BSSS-Item Faktorladung
Erh 0.5514
Wahr 0.6810
Beduerf 0.7687
Suche 0.8408

 

Tabelle: Modellschätzungen einer binär-logistischen Regression (abhängige Variable ist positive Diagnose einer Depression) mit Items.
BSSS-Item Logitkoeffizient Standardfehler p Biseriale Korrelation
Konstante 1.4158   0.5138 0.0029  
Erh 0.0185   0.0076 0.0075 -0.0089
Wahr -0.1731   0.0202 0.0000 -0.4640
Beduerf 0.2204   0.0405 0.0000 0.0991
Suche -0.0831   0.0327 0.0056 -0.1562

N=1153, Schätzung mit Bootstrap-Resampling, pseudo R²=0.1089 .

 

Bei den Modellschätzungen mit den operationalisierten Konstrukt-Variablen als Prädiktoren (statt der Items) ergibt sich für das Modell mit der Faktorvariable ein Logitkoeffizient b=-0.2585 (SE=0.0365, p<0.001, pseudo R²=0.0156), und für das Modell mit dem Index b=-0.0993 (SE=0.0132, p<0.001, pseudo R²=0.0173).

Es zeigt sich hier, dass die Indikatoren eine zumindest hinreichende interne Konsistent hinsichtlich der Reliabilität aufweisen. Die Konsistenz hinsichtlich der internen Konstruktvalidität ist jedoch nicht gegeben. Die Items messen also nicht dasselbe Konstrukt.

Werbeanzeigen
Dieser Beitrag wurde unter Notizen zur Statistik veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.