Kluger-Hans-Effekt

Der Kluger-Hans-Effekt beschreibt in der Psychologie ein Phänomen, bei dem ein Tier oder Mensch scheinbar kognitive Leistungen zeigt, die tatsächlich durch unbewusste Signale von außen – insbesondere von Beobachtern oder Versuchsleitern – gesteuert werden.

Der Effekt wurde nach dem Pferd „Kluger Hans“ benannt, das Anfang des 20. Jahrhunderts durch seine angebliche Fähigkeit, mathematische Aufgaben zu lösen, berühmt wurde. Daher hat der „Kluge Hans“ in Psychologielehrbüchern einige Berühmtheit für einen wissenschaftlichen Irrtum erlangt hat, denn das Tier las perfekt, beherrschte die einfache Bruchrechnung und erhob Zahlen bis zur dritten Potenz, kannte den Wert der deutschen Münzen und erkannte Personen nach Fotografien, selbst sehr kleinen und nicht sehr ähnlichen. So präsentierte der pensionierte Lehrer Wilhelm von Osten 1904 in Berlin das Ergebnis vierjähriger pädagogischer Mühen, den „Klugen Hans“, ein Pferd, das er mit einer eigens entwickelten Didaktik unterrichtet hatte. Von Osten lehrte seinen Hans, die Antwort mit einem Huf auf den Boden zu klopfen – so lange, bis die Zahl oder der Buchstabe im Alphabet erreicht waren. In diesen Code ließ sich alles übersetzen, Hans kannte auch die Spielkarten, er wurde berühmt, das Publikum strömte, auch Experten, Zoologen, Physiologen, Dompteure. Die kamen, weil damals allerorten denkende Tiere vorgeführt wurden, gleich nebenan im Varieté die „Kluge Berta“, auch ein rechnendes Pferd. Berta war leicht zu durchschauen, denn ihr Herr signalisierte die richtigen Ergebnisse. Von Osten tat das nicht, denn Hans rechnete auch in Abwesenheit des Lehrers und das meist richtig. Fehler machten ihn noch menschlicher, denn ein Beobachter deutete diese als „Zeichen von Eigenwilligkeit und Selbstständigkeit, die man fast Humor nennen möchte“.

Untersuchungen durch den Psychologen Oskar Pfungst zeigten jedoch, dass Hans nicht tatsächlich rechnen konnte, sondern vielmehr auf feine, unbewusste Körpersignale seines Besitzers oder anderer Anwesender reagierte, etwa durch minimale Veränderungen in Mimik oder Körperhaltung, die ihm signalisierten, wann er mit dem Klopfen aufhören sollte. Rechnen und Lesen konnte Hans nämlich nicht, sondern er konnte dem Versuchsleiter – und zwar jedem – die Antwort am Gesicht ablesen. Der senkte am Ende der Frage so automatisch wie unbewusst den Blick auf den Huf, der die Antwort schlagen sollte, und er hob ihn wieder, wenn sie fast fertig war. Das verstand das Tier, sonst nichts, eine Augenbinde machte dem Mirakel ein Ende. Von Osten konnte die Kränkung nicht verwinden, denn er war kein Betrüger und wünschte dem zu klugen Schüler ein „Ende vor dem Mörtelwagen“. Der „Kluge Hans“ musste in den Krieg und kehrte nicht zurück.

Dieser Effekt hatte weitreichende Bedeutung für die psychologische Forschung, insbesondere bei der Gestaltung von Experimenten. Er verdeutlicht, wie wichtig es ist, unbewusste Einflussnahmen auszuschließen, zum Beispiel durch Doppelblindverfahren, um valide Ergebnisse zu erhalten. Dieser Irrtum trug mit zur Entwicklung des Doppelblindversuchs bei, bei dem auch der Versuchsleiter nicht weiß, welcher Versuchspatient ein echtes Medikament bekommt und welcher ein Placebo.

Dieser Kluger-Hans-Effekt wird nun in jüngster Zeit auch im Zusammenhang mit künstliche Intelligenz bemüht, denn diese beeindruckt durch ihre Fähigkeit, komplexe Aufgaben zu lösen, Muster zu erkennen und in vielen Bereichen erstaunlich präzise Ergebnisse zu liefern. Doch dabei entsteht häufig ein trügerisches Bild: Die KI scheint klüger, als sie tatsächlich ist. Ähnlich wie der Kluge gelangen auch moderne KI-Modelle auf ähnliche Weise zu richtigen Antworten, indem sie sich auf irrelevante oder zufällige Merkmale stützen, statt tatsächlich sinnvolle Zusammenhänge zu erkennen. Ein Forschungsteam der Technischen Universität Berlin hat diese Problematik anhand medizinischer KI-Anwendungen untersucht. In einem Experiment sollte ein KI-Modell lernen, auf Röntgenbildern COVID-19-Patienten zu erkennen. Anfangs schien das gut zu funktionieren – bis das Modell mit weniger standardisierten Bildern konfrontiert wurde. Plötzlich häuften sich die Fehler. Die Ursache war überraschend und alarmierend: Die KI hatte nicht gelernt, die medizinisch relevanten Bildinhalte zu analysieren, sondern sich unbemerkt auf handschriftliche Notizen am Bildrand als indirekte Hinweise verlassen. Das Modell hatte also nicht wirklich verstanden, was eine Infektion im Bild ausmacht, sondern lediglich statistisch auffällige, aber sachlich irrelevante Zusammenhänge genutzt – genau wie einst das Pferd Hans, das Mimik statt Mathematik interpretierte. Dieses Phänomen wurde auch bei anderen KI-Modellen beobachtet. Eine Bilderkennungs-KI etwa sollte deutsche und amerikanische Panzer unterscheiden, stützte ihre Entscheidungen aber hauptsächlich auf die Landschaft im Hintergrund: Wälder bedeuteten deutsche Panzer, Wüsten amerikanische. Auch ein weiteres Beispiel – die Unterscheidung von Huskys und Wölfen – offenbarte, dass die KI den verschneiten Hintergrund als entscheidendes Kriterium nutzte, statt die Tiere selbst zu analysieren. Solche Fälle verdeutlichen, wie trügerisch der Eindruck von Intelligenz sein kann, wenn KIs aus den falschen Gründen zum richtigen Ergebnis kommen. Gerade in sicherheitskritischen Bereichen wie der Medizin oder dem autonomen Fahren kann dieser Effekt schwerwiegende Folgen haben. Denn die scheinbar treffsichere Leistung der KI kann bei abweichenden Bedingungen rasch zusammenbrechen. Besonders anfällig sind dabei Systeme, die mit unüberwachtem Lernen arbeiten – also ohne konkrete Vorgaben selbstständig Muster erkennen sollen. Solche Ansätze gelten zwar als besonders vielversprechend, da sie Zusammenhänge entdecken können, die dem Menschen verborgen bleiben, doch sie bergen auch ein hohes Risiko für Täuschungen durch irreführende Korrelationen. Gerade in Bereichen wie der Medizin, Bildung oder Sicherheit ist es essenziell, sich nicht vollständig auf KI zu verlassen, sondern menschliche Expertise einzubeziehen. Nur so kann verhindert werden, dass richtige Antworten auf falschem Weg zu gefährlichen Entscheidungen führen.

Eine mögliche Lösung bietet der Ansatz der „Explainable AI“, also der erklärbaren künstlichen Intelligenz. Hierbei wird der Entscheidungsweg der KI transparent gemacht, sodass nachvollziehbar wird, auf welchen Faktoren ihre Entscheidung basiert. Wäre dies in den genannten Beispielen erfolgt, hätte man schnell erkannt, dass Schnee, Notizen oder Hintergrundlandschaften entscheidend waren – und damit das Fehlverhalten korrigieren können. Der Kluger-Hans-Effekt zeigt somit deutlich, dass Vertrauen in KI nur gerechtfertigt ist, wenn ihre Entscheidungen erklärbar und überprüfbar sind.

Literatur

Kauffmann, J., Dippel, J., Ruff, L., Samek, W., Müller, K.-R. & Montavon, G. (2024). The Clever Hans Effect in Unsupervised Learning. arXiv, doi:10.48550/arXiv.2408.08041
Pfungst, O. (1907). Das Pferd des Herrn von Osten (Der kluge Hans): Ein Beitrag zur experimentellen Tier- und Menschenpsychologie. Leipzig: Barth.
Stangl, W. (2005, 24. Mai). intelligenz bei tieren. [werner stangl]s test & experiment.
https://testexperiment.stangl-taller.at/intelligenz-bei-tieren.html


Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::

Schreibe einen Kommentar