Das menschliche Gehirn im Lauf seiner Entwicklung zum Gesichter-Spezialisten geworden, wobei das Gehirn die Gesichtserkennung nicht lernen muss, sondern diese Fähigkeit ist angeboren. Alles, was nur entfernt wie ein Gesicht aussieht, löst einen Erkennungsmechanismus aus, weshalb Menschen manchmal auch dort Gesichter sehen, wo gar keine sind, etwa in Wolken oder Bäumen. Nicht nur Menschen mit überdurchschnittlich entwickelter Phantasie sehen in der Umgebung häufig Gesichter, wo keine sind, sondern Gesichter in Dingen zu erkennen ist zutiefst menschlich. Schon David Hume erkannte, dass es die allgemeine Tendenz unter Menschen ist, alle Dinge als sich selbst ähnlich aufzufassen und diese Eigenschaft sogar auf Dinge zu übertragen. Ursache des Phänomens ist die Gehirnleistung, wobei die linke Gehirnhälfte einstuft, wie ähnlich ein Bild einem Gesicht ist, aber die Entscheidung, ob es sich tatsächlich um ein Gesicht handelt, fällt die rechte Hirnhälfte. Wenn nun in einem Gegenstand ein lächelndes Gesicht erkannt wird, sagt die linke Seite des Gehirns spontan „Ja“ und erst die Kontrolle durch die rechte Gehirnhälfte sagt „Nein“.
Wenn Menschen jemanden in einer Menschenmenge suchen, schauen sie in viele Gesichter, bevor sie das gesuchte Gesicht entdecken. In einer Untersuchung (Kaunitz et al., 2016) ließ man Probanden am Computerbildschirm nach einem bestimmten Gesicht in einer Menschenmenge suchen, währenddessen man die Augenbewegungen registrierte und auch, welche Personen im Bild angeblickt worden waren. Danach wurde erhoben, an welche Gesichter sich die Probanden erinnerten und wie sicher sie sich ihrer Erinnerung waren. Dabei zeigte sich, dass die Probanden bis zu sieben der fremden Gesichter wiedererkannten, die sie bei ihrer Suche nach der Zielperson angeblickt hatten, obwohl sie während der Suche nicht wussten, dass sie später nach diesen befragt würden. Auch waren sich die Testpersonen ihrer Sache sehr sicher, was belegt, dass sie sich tatsächlich bewusst an die gesehenen Personen in der Menschenmenge erinnerten. Man schließt daraus, dass das menschliche Gedächtnis auch beiläufige Bilder zumindest kurzzeitig behält und diese nicht wieder sofort löscht. Dies macht insofern natürlich Sinn, damit man bei der Suche nach einem bekannten Gesicht die schon überprüften Gesichter nur noch kurz überfliegen muss, um diese von einer nochmaligen näheren Betrachtung auszuschließen.
Bei der Erkennung von Gesichtern gibt es übrigens deutliche Unterschiede in der Wahrnehmung vertrauter und unbekannter Gesichter, wobei neuere Untersuchungen zeigen, dass ein erwachsener Mensch im Mittel etwa fünftausend Gesichter anderer Menschen mehr oder minder kennt, wobei die Spanne bei Individuen von etwa tausend bis zehntausend Gesichtern reicht.
Wie Gesichtsausdrücke im Gehirn kodiert werden
Dynamische Gesichtsausdrücke sind entscheidend für die Kommunikation bei Menschen und auch bei Primaten, wobei Menschen bei der Deutung von Gesichtsausdrücken erstaunlich wenige Fehler machen, selbst wenn es sich um Phantasiefiguren handelt. Künstlichen Intelligenz hingegen kann zwar menschliche Gesichter sehr gut erkennen, versagt aber bei Phantasiefiguren, wenn sie nicht explizit zuvor darauf trainiert wurde. Aufgrund der Problematik, Form und Dynamik von Gesichtsausdrücken artübergreifend zu kontrollieren, ist noch weitgehend unbekannt, wie artspezifische Gesichtsausdrücke perzeptiv kodiert werden und mit der Repräsentation der Gesichtsform interagieren. Während gängige neuronale Netzwerkmodelle eine gemeinsame Kodierung von Gesichtsform und -dynamik vermuten, entwickelte sich die neuromuskuläre Kontrolle von Gesichtern langsamer als die Gesichtsform, was auf eine separate Kodierung hindeutet. Um diese alternativen Hypothesen zu untersuchen, entwickelten Taubert et al. (2021) dreidimensionale computeranimierte Gesichter von Menschen und Affen, die mit Motion-Capture-Daten von Affen und Menschen animiert wurden. Dabei konnte man die Bewegung der Gesichts-Avatare kontrollieren, diese entsprachen der typischen Mimik von Menschen wie auch von Affen beim Ausdruck von „Angst“ und „Ärger“, wobei der Affen-Avatar auch menschliche Gesichtsausdrücke übernehmen und der Mensch-Avatar tierische Mimik zeigen konnte.
Die Probanden konnten die Mimik bei beiden Gesichts-Avataren gleich gut erkennen und identifizierten die menschlichen Gesichtsausdrücke auf dem Affengesicht sofort. Die Affenausdrücke, die sich sehr von den menschlichen unterschieden, erlernten sie schon nach wenigen Wiederholungen, wobei die unterschiedliche Gesichtsform des Menschen- und des Affen-Avatars für die Erkennung der emotionalen Ausdrücke keine Rolle zu spielen schien. Offenbar hat sich in der evolutionären Entwicklung des Gehirns die Anatomie der Gesichtsmuskeln nur wenig verändert, so dass Primaten und Menschen im Prinzip sehr ähnliche Gesichtsbewegungen ausführen können, obwohl die menschliche Kopfform deutlich von der des Affen abweicht, doch hat sich offenbar die Wahrnehmung an diesen Unterschied angepasst und kann deshalb die Mimik unabhängig von der Kopfform verarbeiten. Dieses Ergebnis unterstützt demnach die Hypothese einer Koevolution der visuellen Verarbeitung und der motorischen Kontrolle von Gesichtsausdrücken.
Siehe auch Pareidolie.
Buchstabenerkennung und Gesichtserkennung
Lesen ist für das Gehirn eine äußerst spruchsvolle Aufgabe, denn es muss Formen als Buchstaben erkennen, die in bestimmten Kombinationen spezifische Laute repräsentieren und auch einen Sinn ergeben. Erste menschliche Schriftsprachen haben sich erst vor rund fünftausend Jahren entwickelt, sodass dieser Zeitraum evolutionsgeschichtlich viel zu kurz ist, als dass sich das menschliche Gehirn an diese Herausforderung hätte anpassen können. Gesichter haben für Menschen offensichtlich eine so große Bedeutung, dass sich im Laufe der Evolution die visuelle Wahrnehmung auf das Erkennen von Gesichtern derart spezialisiert hat, dass häufig Gesichter auch dort gesehen werden, wo es gar keine gibt. Bisher ging man davon aus, dass es sich bei diesem Phänomen um eine gesichtsspezifische Ausnahme handelt, doch findet such ein ähnlicher Effekt auch für das Erkennen von Buchstaben. Grundlage dafür ist offenbar die Plastizität des Gehirns, durch die Menschen in der Lage sind, sich an Umweltreize anzupassen, denn praktisch überall in der Umwelt treffen Menschen auf Buchstaben, etwa in den Medien, im Straßenbild oder auf Alltagsgegenständen. In einer Studie haben Grotheer & Kovács (2014) ihren Probanden unterschiedliche Buchstabenreihen gezeigt und die beim Sehprozess entstandene Gehirnaktivität aufgezeichnet. Die Aufnahmen belegten, dass sich die Hirnaktivität im Verlauf der Messung an die visuelle Wahrnehmung der Buchstaben anpasste, allerdings nur dann, wenn es sich um korrekte lateinische Schriftzeichen handelt. In einer Versuchsreihe mit verfremdeten Buchstaben konnte keine entsprechende Adaptation nachgewiesen werden. Man vermutet, dass die Lese- und Schreiberfahrung für diese Anpassung verantwortlich ist, allerdings bleibt unklar, ob die Anpassungsfähigkeit des Gehirns für das Erkennen von Buchstaben wie bei der Wahrnehmung von Gesichtern das Ergebnis eines evolutionären Entwicklungsprozesses darstellt.
Eine Studie von Vidal et al. (2020) hat jüngst bestätigt, dass die Grundlage, eine Schrift zu lesen, auf allgemeinen evolutionären Mechanismus beruht, wiederkehrende Muster zu erkennen und als bekannt wahrzunehmen. Anders als in klassischen Studien zu dieser Thematik verwendete man als Stimuli nicht buchstabenartige Zeichen, sondern geometrische Gebilde und Gitterformen. Wenn nämlich das Lesen auf allgemeinen visuellen Mechanismen beruht, sollten einige Effekte, die auftreten, wenn man es mit orthografischen Zeichen zu tun hat, auchdann auftreten, wenn man mit nicht-orthografischen Stimuli konfrontiert ist. In der Studie machten sich die Probanden zunächst mit kurzen Wörtern vertraut, die jeweils aus drei buchstabenähnlichen Zeichen bestanden, wobei die Zeichen zwar einer Schrift ähnelten doch keine Bedeutung hatten. Danach wurden bekannte und neue Kombinationen dieser Pseudobuchstaben präsentiert und die Probanden sollten angeben, welche der Wörter richtig und welche falsch waren. Die Teilnehmer lernten dabei, Wörter in dieser künstlichen Sprache daran zu erkennen, wie häufig bestimmte Teile zusammen auftraten, und identifizierten Wörter, die aus häufigeren Paaren von Pseudobuchstaben bestanden, leichter als korrekt. Auch bei Wiederholungen der Versuche mit dreidimensionalen Objekten und verschiedenen Gitterforme konnten die Probanden passende und unpassende Stimuli voneinander unterscheiden. Damit bestätigten sich frühere Forschungsergebnisse, die gezeigt hatten, dass im Gehirn der linke fusiforme Gyrus, ein Teil der Großhirnrinde sowohl beim Lesen als auch beim Erkennen von Objekten und hier insbesondere bei Gesichtern aktiv ist. Offenbar ist von der Logik des menschlichen Gehirns her entscheidend, überhaupt Regelmäßigkeiten zu erkennen und ihnen eine Bedeutung zu verleihen, d. h., es gibt eine adaptive Einstellung auf Reize, die regelmäßig auftreten.
In Uhrenwerbungen ist es meist immer 10 vor 10 Uhr, denn Experimente zeigten, dass Uhren, die auf 10:10 Uhr eingestellt wurden, eine positivere Wirkung auf die Emotionen des Beobachters sowie auf deren Kaufabsicht haben als Uhren, die auf 8:20 Uhr oder 11:30 Uhr eingestellt waren. Dies liegt daran, dass die Uhrzeit 10 nach 10 Uhr unbewusst wie ein lächelndes Gesicht wirkt (Karim et al., 2017).
Buchtipp und Linktipp: Der SPIEGEL-Photograf Konrad Lischka hat in einem Buch neugierige Hydranten, traurige Handtaschen, müde Tacker, lächelnde Gullydeckel, schielende Häuser entdeckt, denn im Büro, in der Stadt, in der Wohnung blicken Dinge mit Gesicht in die Welt, die eigentlich keines haben sollten. Auf dem Facebookaccount Dinge mit Gesicht zeigt Konrad Lischka Aufnahmen dieser versteckten Wesen und täglich kommen Fotos von mehr seinen Fans hinzu. Die Reaktionen im Netz zeigen: Es ist eine Freude, Dinge mit Gesicht zu entdecken und ihre Mienen zu deuten.
Siehe dazu auch Gesichtserkennung durch FACS und Lesenlernen reduziert Gehirnareale zur Gesichtserkennung.
Literatur
Grotheer, M. & Kovács, G. (2014). Repetition Probability Effects Depend on Prior Experiences. The Journal of Neuroscience, 34, 6640-6646.
Karim, Ahmed A., Lutzenkirchen, Britta, Khedr, Eman & Khalil, Radwa (2017). Why Is 10 Past 10 the Default Setting for Clocks and Watches in s? A Psychological Experiment. Frontiers in Psychology, doi: 10.3389/fpsyg.2017.01410.
Kaunitz, L.N., Rowe, E.G. & Tsuchiya, N. (2016). Large capacity of conscious access for incidental memories in natural scenes [Abstract]. Psychological Science, doi:10.1177/0956797616658869.
Orghian, Diana & Hidalgo, César, (2018). Worse Than You Think: Positivity Bias in Evaluations of Human Facial Attractiveness (April 13,). Scientific Reports, doi:10.2139/ssrn.3162479.
Taubert, N., Stettler, M., Siebert, R., Spadacenta, S., Sting, L., Dicke, P., Thier, P., & Giese, M. A. (2021). Shape-invariant encoding of dynamic primate facial expressions in human perception. eLife, 10, doi:10.7554/eLife.61197.
Vidal, Yamil, Viviani, Eva, Zoccolan, Davide & Crepaldi, Davide (2020). A general-purpose mechanism of visual feature association in visual word identification and beyond. Current Biology, doi: 10.1016/j.cub.2020.12.017.