Zum Inhalt springen

Effektstärke – Effektgröße – Effektmaß

    Als Effektstärke oder Effektgröße wird in der psychologischen Statistik ein statistisches Maß bezeichnet, das die (relative) Größe eines Effektes angibt. Die Effektstärke wird meist auch zur Verdeutlichung einer gewissen praktischen Relevanz von signifikanten Ergebnissen herangezogen, da in der empirischen Forschung nicht nur interessiert, ob ein Effekt vorhanden ist oder nicht, sondern auch wie groß der Effekt ist.

    Die Effektstärke wird manchmal auch als Korrelation oder Zusammenhang bezeichnet und gehört zur beschreibenden Statistik. Man hat Datensätze von Merkmalsträgern, von denen man zwei oder mehr Merkmale parallel analysiert und dabei die Zusammenhänge zwischen jeweils zwei Variablen untersucht. Wie stark der Zusammenhang ist, darüber gibt die Effektstärke Auskunft.

    Die Effektgrößen sind nach Ansicht von Experten die Währung der psychologischen Forschung, denn sie quantifizieren erst die Ergebnisse einer Studie zur Beantwortung einer Forschungsfrage und werden zur Berechnung der statistischen Leistung verwendet. Die Interpretation der Effektgrößen – wenn es sich um einen Effekt kleiner, mittlerer oder großer Art handelt – orientiert sich an den Empfehlungen, die Cohen (1988) in seinen Schriften ab 1962 entwickelt hat: Entweder vergleicht man einen Effekt mit den Effekten vergangener Untersuchungen oder verwendet konventionelle Benchmarks. Die Psychologie verwendet diese Konvention, um ihre empirischen Ergebnisse zu interpretieren. So entspricht etwa der durchschnittliche Effekt von Psychotherapie – gegenüber unbehandelter Kontrollgruppen – einer Korrelation von etwa 0,30, was laut der Konventionen von Cohen als mittelgroßer Effekt gilt. Ob diese Konventionen aber tatsächlich der Verteilung der realen empirischen Effekte entsprechen, wurde erstmals von Schäfer & Schwarz (2019) untersucht. Dabei zeigte sich, dass die bisher publizierten Effekte  die wahren Effekte in der Grundgesamtheit deutlich zu überschätzen scheinen, sodass die Konventionen, die bisher für die grobe Einschätzung über die Größe eines empirisch gefundenen Effektes in der Psychologie benutzt wurden, so nicht wirklich brauchbar sind und daher in den nächsten Jahren angepasst werden sollten. In ihrer Metastudie konnten Schäfer & Schwarz zeigen, dass die bisher in der Psychologie publizierten Effekte in etwa doppelt so groß zu sein scheinen wie die wahren Effekte in der Population, sodass der Vergleich eines aktuellen Forschungsergebnisses mit bisherigen Ergebnissen sehr schwierig ist. Gründe für diese drastische Verzerrung der publizierten Effekte ist einerseits der publication bias, wonach nur große oder signifikante Effekte publiziert werden, weil sie  spektakulär sind und sich daher gut vermarkten lassen, andererseits fragwürdige Forschungspraktiken wie das gezielte Berichten von großen und das Unterschlagen von kleinen Effekten in Studien mit mehreren Fragestellungen.


    Meist wird das Effektmaß d errechnet, wobei Effektmaße größer als 0 zeigen, dass ein Faktor wirkt, wobei Effektmaße zwischen .20 und .40 als kleine Effekte gelten, zwischen .40 und .60 als moderate Effekte, über .60 als große Effekte.

    Beispiel für Effektmaße: In der bekannten Hattie-Studie gab es zahlreiche überraschende Befunde, etwa dass

    • Hausaufgaben nicht per se wirksam sind, sondern dass es vielmehr auf ihre didaktische Einbettung ankommt (geringes Effektmaß von d = .29).
    • Bei der Untersuchung des Zusammenhangs zwischen Schulgröße und Leistungserfolg zeigte sich, dass Lernleistungen an Schulen in einem mittleren Bereich (600-900 Schüler) besser als die Leistungen an kleinen oder großen Schulen sind (Effektmaß von d = .43).
    • Die Effektmaße für die Lehrerausbildung und für das Fachwissen von Lehrpersonen (d = .11 bzw. d = .09) zeigen keine Wirkungen für den Lernerfolg von Schülerinnen und Schülern, während eine systematische Elternarbeit sehr einflussreich sein kann (d = .51).
    • Lehrerfortbildungsmaßnahmen, die in die Praxis eingebunden sind, erweisen sich als sehr wirksam („Professional development“, d = .62). So ist  etwa das „Mikroteaching“ (eines spezielle Form des Lehrerverhaltenstrainings) hochwirksam (d = .88).

    Literatur

    Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences. Hillsdale: Lawrence Erlbaum Associates.
    Schäfer, T., & Schwarz, M. (2019). The meaningfulness of effect sizes in psychological research: Differences between sub-disciplines and the impact of potential biases. Frontiers in Psychology, 10, doi:10.3389/fpsyg.2019.00813.


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert