Imago est animi vultus.
Cicero
Gesichtserkennung ist grundsätzlich eine Fähigkeit des Menschen, die er nicht erlernen muss, sondern diese Funktion des Gehirns ist angeboren. Man weiß übrigens seit einiger Zeit auch um das Sehvermögen von Föten und dass es innerhalb der Gebärmutter keineswegs vollständig dunkel ist. Reid et al. (2017) projizierten daher Lichtmuster in den Uterus von Frauen im letzten Drittel ihrer Schwangerschaft, wobei sich zeigte, dass auch schon Ungeborene auf Gesichter besonders interessiert reagieren. Die Reaktion der Föten auf die Lichtmuster – stark vereinfachte Gesichtsdarstellungen, die richtig- und falsch angeboten wurden – konnten dann mittels Ultraschall erfasst werden. Ungeborene drehten dabei den Kopf deutlich häufiger in Richtung der „Gesichter“ als in die anderer Muster, wobei kopfstehenden Gesichter bekanntlich ein Muster darstellen, auf das auch später die menschliche Gesichtserkennung nicht reagiert. Man vermutet daher, dass die Präferenz für Gesichter bereits im Mutterleib beginnt und keines Lernprozesses nach der Geburt bedarf.
*** Hier KLICKEN: Das BUCH dazu! *** Bei der Erkennung von Gesichtern gibt es übrigens deutliche Unterschiede in der Wahrnehmung vertrauter und unbekannter Gesichter, wobei neuere Untersuchungen zeigen, dass ein erwachsener Mensch im Mittel etwa fünftausend Gesichter anderer Menschen mehr oder minder kennt, wobei die Spanne bei Individuen von etwa tausend bis zehntausend Gesichtern reicht. Die Wahrnehmungsprozesse, die den individuellen Unterschieden in der Gesichtserkennungsfähigkeit zugrunde liegen, sind noch wenig bekannt. Dunn et a. (2022b) verglichen in einem weiteren Versuch das visuelle Sampling von erwachsenen Super-Recognizern mit dem von typischen erwachsenen Betrachtern, indem sie die Blickposition maßen, während sie unbekannte Gesichter lernten und erkannten. In beiden Phasen betrachteten die Teilnehmer Gesichter durch unterschiedlich große „Spotlight“-Öffnungen, wobei die Gesichtsinformationen in Echtzeit um ihren Fixationspunkt herum eingeschränkt wurden. Man fand bei allen Blendengrößen eine höhere Genauigkeit bei den Super-Recognizern, was zeigt, dass ihre Überlegenheit nicht von der globalen Erfassung von Gesichtsinformationen abhängt, sondern sich auch zeigt, wenn sie gezwungen sind, stückweise zu erfassen. Außerdem fixierten Super-Recognizer mehr Gesichter, konzentrierten sich weniger auf die Augenregion und verteilten ihren Blick mehr als typische Betrachter. Diese Unterschiede waren beim Erlernen von Gesichtern am deutlichsten und stimmten mit den Tendenzen überein, die man über das breitere Fähigkeitsspektrum hinweg beobachtet hatte, was darauf hindeutet, dass sie Faktoren widerspiegeln, die in der breiteren Population dimensional variieren.
Das erfolgreiche Erkennen von vertrauten Personen ist entscheidend für soziale Interaktionen. Wenn man das Gesicht einer Person sieht, weiß man in der Regel sofort, ob man sie schon einmal gesehen hat oder nicht. Bereits nach circa vierhundert Millisekunden zeigen sich dabei im rechten temporalen Cortex messbare Gehirnaktivitäten als Zeichen dafür, dass ein Gesichter als bekannt wahrgenommen wird. Trotz umfangreicher Forschung zu den neuronalen Repräsentationen von vertrauten Gesichtern weiß man noch relativ wenig darüber, wie sich solche Repräsentationen entfalten, wenn einem ein Mensch mit der Zeit vertraut wird. Ambrus et al. (2021) haben in drei EEG-Experimenten mit menschlichen Probanden beiderlei Geschlechts untersucht, wie Repräsentationen von Gesichtsvertrautheit und -identität bei unterschiedliche Kontaktqualitäten entstehen: kurze Wahrnehmungsexposition, umfangreiche Medienvertrautheit und persönliche Vertrautheit im realen Leben. Mit Hilfe einer multivariaten repräsentativen Ähnlichkeitsanalyse konnte man zeigen, dass die Art der Vertrautheit einen tiefgreifenden Einfluss auf die Repräsentationen von Gesichtern hat, wobei sich zusätzlich die Vertrautheit der Repräsentationen von Gesichtsvertrautheit und Identität unterschiedlich formt, d. h., wenn man jemanden kennenlernt, erscheinen Vertrautheitssignale vor der Bildung von Identitätsrepräsentationen. Insgesamt zeigte sich, dass die Qualität des Kontaktes einen großen Einfluss auf die Repräsentationen der Gesichtsvertrautheit hat, denn diee war stark nach persönlicher Vertrautheit, schwächer nach medialer Vertrautheit und nicht vorhanden nach perzeptueller Vertrautheit. In allen Experimenten fand man keine Verstärkung der Identitätsrepräsentation von Gesichtern, was darauf hindeutet, dass Vertrautheits- und Identitätsrepräsentationen während der Gewöhnung an Gesichter unabhängig voneinander entstehen. Diese Ergebnisse unterstreichen die Bedeutung einer umfangreichen, realen Gewöhnung an ein Gesicht für die Entstehung robuster Repräsentationen der Gesichtsvertrautheit und schränken Modelle der Gesichtswahrnehmung und des Erkennungsgedächtnisses ein.
Gesichter sind ein zentraler Aspekt der Umwelt, wobei nach der Geburt in den ersten Lebenswochen die Augen eines Säuglings auf Objekte fokussiert sind, die sich in einem Abstand wie das Gesicht einer stillenden Mutter befinden. Man vermutet daher, dass es im Gehirn einen angeborenen Mechanismus gibt, der die Aufmerksamkeit von Babys auf Gesichter lenkt, denn Säuglinge sind bekanntlich von Gesichtern länger als von anderen Mustern gefesselt. Mit der Zeit und wachsender Erfahrung wird diese Reaktion jedoch immer spezialisierter, wobei sich später Erwachsene manchmal schwer damit tun, zwei Gesichter zu unterscheiden, die auf dem Kopf stehen. Nach Untersuchungen mittels EEG macht es für Kinder unter vier Monaten noch keinen Unterschied, ob sie die Gesichter aufrecht oder verkehrt herum sehen, und erst jenseits dieser Altersgrenze beginnen sie, Gesichter in gewohnter Orientierung zu bevorzugen. Im Alter von sechs Monaten ähneln die EEG-Reaktionen von Kindern, die Gesichter sehen, bereits denen von Erwachsenen. Zwar weiß man seit der Gestaltpsychologie, dass Menschen bei er Gesichtserkennung in fixen Kategorien denken, doch nun haben Neurobiologen experimentell nachgewiesen haben, wie es dem Gehirn genau gelingt, solche Konstanten in einer sich ändernden Umwelt rasch zu identifizieren und als solche zu erkennen: dieses automatische Denken erfolgt in Ensembles von etwa 50 bis 100 miteinander verschalteter Zellen, die relativ stabile Muster abbilden. Menschen sind daher von Natur aus Experten für die Wahrnehmung von Gesichtern, da die Gesichtserkennung eine wichtige Stütze des sozialen Zusammenlebens darstellt, wobei Kinder diese Fähigkeit weiterentwickeln müssen. Theoretisch gibt es zwei Standpunkte: der erst besagt, dass der Prozess der Gesichtserkennung etwa im Alter von fünf Jahren weitgehend abgeschlossen ist, und dass danach Menschen nur noch besser im Erkennen von Gesichtern werden, weil das Gedächtnis und die Aufmerksamkeit ebenfalls leistungsfähiger werden. Der zweite Ansatz geht davon aus, dass das menschliche Gehirn seine Leistung in der Gesichtserkennenung durch Lernen bis ins Alter kontinuierlich steigert. Neuere Untersuchungen zeigen nun, dass die Fähigkeit zur Gesichtserkennung im Gehirn sich im Lauf der Entwicklung immer weiter verfeinert, sodass Menschen erst durch diese stetige Weiterentwicklung in der Lage sind, andere Menschen auch dann noch zu unterscheiden, wenn sie sich sehr ähnlich sehen, oder auch Menschen sogar dann wiederzuerkennen, wenn sie sich äußerlich etwa durch einen neuen Bart oder Haarschnitt verändert haben. Zuständig für die Gesichtserkennung ist der Gyrus fusiformis, eine Gehirnwindung der Großhirnrinde des Schläfenlappens. Bei einer genaueren funktionalen Magnetresonanztomografie identifizierte man jüngst für die Gesichterkennung den ventral temporalen Cortex im Gyrus fusiformis, für die Ortserkennung den collateralen Sulcus an der Grenze zum Gyrus fusiformis. Dabei fand man auch, dass die relative Größe des zuständigen Bereichs für Gesichtserkennung im Gehirn zunimmt, während das Gehirnareal für Ortserkennung keinen Zuwachs verzeichnet. Gehirnbereiche, die für die Gesichts- und Ortserkennung zuständig sind, entwickeln sich offenbar unterschiedlich (Gomez et al., 2016).
Vor einigen Jahren wurde übrigens die Hypothese verworfen, dass es gewissermaße für jeden Menschen im Gehirn eine Zelle oder einen Zellverband gibt, der für das Wiedererkennen verantwortlich ist (Theorie der Großmutterzelle). Allerdings zeigen neuere Untersuchungen von Rodrigo Quian Quiroga et al. (2014) mit Hilfe eines raffinierten Experiments, bei denen man auf Menschen mit starker Epilepsie zurückgreifen konnte und denen zur Diagnose und Behandlung zeitweilig Elektroden in bestimmte Gehirnareale eingesetzt worden waren, dass es für bekannte Gesichter möglicherweise doch ein einzelnes Neuron gibt, die ein sofortiges Wiedererkennen bewirkt. Diese bei den Patienten implantierten Elektroden leiten die Signale einzelner Neuronen weitaus genauer ab als außen am Schädel sitzende Elektroden, mit denen man meist arbeitet. Man zeigte zehn Probanden zunächst Portraitbilder von bekannten Prominenten wie Angelina Jolie, Bob Marley, Bill Clinton oder Arnold Schwarzenegger. Anschließend sahen die Teilnehmer für kurze Zeit ein Portrait, dessen Gesichtszüge mittels eines Grafikprogramms aus zwei prominenten Gesichtern zusammengefügt worden war, etwa ein Mischgesicht aus Angelina Jolie und Halle Berry oder aus Arnold Schwarzenegger und Sylvester Stallone. Durch einen Klicker mussten die Teilnehmer angeben, welchen der beiden gemorphten Gesichter sie zuerst erkannten. Dabei ließ sich an der Aktivität ihrer Hirnzellen ablesen, welche der beiden Komponenten die Teilnehmer erkannten. Erkannten sie etwa Angelina Jolie im Mischbild, feuerte nur das Neuron im Gesichtserkennungsareal des Schläfenlappens, das auch schon zuvor bei Portraits dieser Schauspielerin reagiert hatte, umgekehrt blieb dieses Neuron stumm, wenn die Probanden im Mischbild zuerst Halle Berry erkannt hatten. Dafür feuerte nun das für Halle Berry zuständige Neuron, und zwar genauso stark, als wenn die Probanden ein normales, nicht gemorphtes Bild der Schaupsielerin gesehen hätten. Die Ergebnisse bestätigen einerseits, dass die Neuronen in diesem Areal des Gehirns für die Gesichtserkennung und für das Erkennen von bekannte Gesichter entscheidend sind, zum anderen aber zeigten sie, dass diese Neuronen bei bekannten Gesichtern tatsächlich weniger die einzelnen visuellen Merkmale der Gesichter signalisieren, sondern dass direkt jene Neuronen reagieren, die die Erinnerung an eine bestimmte Person repräsentieren. Offensichtlich gibt es die berühmte Großmutterzelle doch, d. h., dass man nicht eine Kombination von visuellen Merkmalen wahrnimmt, sondern direkt das Gesicht der bekannten Person. In Frage gestellt werden diese Annahmen allerdings durch Untersuchungen an Primaten: Primaten erkennen komplexe Objekte wie Gesichter mit bemerkenswerter Geschwindigkeit und Zuverlässigkeit. Experimente an Makaken zeigten eine außergewöhnlich einfache Transformation zwischen Gesichtern und Reaktionen von Zellen in den Face Patches, einem Areal der Großhirnrinde, in dem die Neuronen auf Merkmale reagieren, die sich über Form und Erscheinungsbild eines Gesichts mathematisch definieren lassen, wie Chang & Tsao (2017) zeigen konnten.
Frühere Studien hatten die Spezifität dieser Hirnareale für die Kodierung von Gesichtern bereits angedeutet. Um zu entschlüsseln, wie die Zellen diese Erkennungsaufgabe erfüllen, erstellte man zweitausend menschliche Fotos mit Variationen in fünfzig Merkmalen, darunter die Rundheit des Gesichts, der Abstand zwischen den Augen sowie dem Hautton und der Textur. Jedes Neuron reagierte dabei nur auf ein einziges Merkmal, fanden die Forscher heraus. Anstatt die Gesichter von Individuen zu kodieren, wie das Jennifer-Aniston-Neuron im Hippocampus, teilten die Face Patches Neuronen die Bilder in kleinere Regionen auf und kodierten spezifische Merkmale, wobei die Neuronen darüber hinaus in getrennten Gesichtsfeldern komplementäre Informationen verarbeiteten. Chang & Tsao (2017) fanden durch die Formatierung von Gesichtern als Punkte in einem hochdimensionalen linearen Raum, dass die Feuerrate jeder dieser Gesichtszellen proportional zur Projektion eines eintreffenden Gesichtsstimulus auf einer einzelnen Achse in diesem Raum ist, so dass ein Gesichtszellen-Ensemble die Lage jedes Gesichts im Raum kodieren kann. Mit Hilfe dieses Codes konnten Gesichter allein aus den Reaktionen der neuronalen Aktivität präzise entschlüsseln und die neuronale Feuerrate auf Gesichter vorhersagen. Die Entdeckung dieses Codes widerlegt die seit langem bestehende Annahme, dass Gesichtszellen spezifische Gesichtsidentitäten kodieren. Allerdings waren die verwendeten Gesichter alle frontal abgebildet, nach Helligkeit genormt und zeigten keine Mimik, d. h., um die verschiedenen Erscheinungsformen von Gesichtern im Alltag abzubilden, benötigt es mehr als die in der Untersuchung kontrollierten zweihundert Nervenzellen.
Bekanntlich erkennen Menschen das eigene Gesicht unter vielen Gesichtern schneller als andere Gesichter. Bisher wurde diese Bevorzugung nicht nur auf der supraliminalen Ebene, sondern auch auf der subliminalen Ebene nachgewiesen. Es war jedoch unklar, ob bei der subliminalen Verarbeitung des eigenen Gesichts die gleichen neuronalen Netzwerke beteiligt sind wie bei der supraliminalen Verarbeitung. Ota & Nakano (2021) zeigten nun in einem Versuch, bei dem Bilderabfolgen so schnell gezeigt wurden, dass die einzelnen Bilder gar nicht bewusst wahrgenommen werden konnte, dass dabei das ventral-tegmentale Areal, ein Zentrum des Dopamin-Belohnungsweges, eine stärkere Aktivierung auf unterschwellige Präsentationen des eigenen Gesichtes zeigte als auf solche der Gesichter von anderen, während unterschwellige Präsentationen der Gesichter von anderen Menschen eine Aktivierung in der Amygdala hervorriefen, die im Allgemeinen auf unbekannte Informationen reagiert. Dieser Unterschied in der Gehirnreaktion wurde konsistent auch dann beobachtet, wenn die Gesichtskonfiguration modifiziert wurde, ohne dabei die Form der Gesichtsteile zu verändern. Die vorliegenden Ergebnisse deuten darauf hin, dass der Dopamin-Belohnungsweg an der automatischen Unterscheidung bei der Gesichtsverarbeitung beteiligt ist, und die unterschwellige Selbst-Andere-Gesichtsunterscheidung nicht von der Information der genauen Gesichtskonfiguration abhängt.
Anmerkung:Seit neuestem lernt die Technologie der künstlichen Intelligenz ebenfalls, Gesichter und Stimmen zu bestimmen, wobei ein Foto oder ein gesprochener Satz in der Regel ausreicht, um Informationen über Identität, Gesundheit, Emotionen und sogar die Persönlichkeit zu erhalten. Die künstliche Intelligenz kann inzwischen anhand des Klangs der Stimme erkennen, ob man an Parkinson, Depressionen oder sogar Covid-19 leidet.
Alles, was nur entfernt wie ein Gesicht aussieht, löst einen Erkennungsmechanismus aus, weshalb Menschen manchmal auch dort Gesichter sehen, wo gar keine sind, etwa in Wolken oder Bäumen. Das Gehirn analysiert in weniger als 100 Millisekunden die Mimik des Gesicht, ordnet ihm bestimmte Persönlichkeitseigenschaften zu und zieht daraus seine Schlüsse, d.h., innerhalb von Sekundenbruchteilen analysiert es etwa die Gefühlslage des Gegenüber, um sich intuitiv darauf einzustellen. Bekanntlich findet man Menschen mit einer ähnlichen Mimik spontan sympathischer, und Untersuchungen zeigen, dass Freunde ihre Mimik spontan angleichen, wenn sie sich treffen. So werden Gesichter mit großen, auseinanderstehenden Augen, die an Kindergesichter erinnern, sofort als vertrauenswürdig empfunden, während Gesichter mit eng beieinander stehenden Augen und einem kantigen Kinn aggressiv wirken. Dieses rasche Urteil kann auch der Verstand nicht mehr korrigieren, der sich nach etwa einer Drittelsekunde unbewusster Verarbeitung dazuschaltet, d.h., ein Gesicht neutral zu betrachten, ist für den Menschen auch dann kaum möglich, wenn er sich genau das vornimmt. Zu Beginn einer jeden Begegnung und eines jeden Gesprächs wird auch die Glaubhaftigkeit des Gegenübers eingeschätzt wird, was etwa innerhalb einer Sekunde völlig unbewusst über eine Analyse des Gesichtsausdrucks (Augen- und Mundstellung), der Tönung der Stimme (Prosodie), aber auch Körpergeruch und Körperhaltung geschieht.
Die Gesichtserkennung funktioniert vor allem auch deshalb, da das Gehirn ständig Vorhersagen über Objekte im Gesichtsfeld trifft und diese mit den hereinkommenden Informationen abgleicht, und nur wenn dabei Fehler auftreten, höhere Gehirnregionen bemüht, um die Prognosen anzupassen. Untersuchungen (Brodski et al., 2015) haben diese Vermutung bestätigt, indem man im Falle eines Vorhersagefehlers die Verstärkung von jenen Gehirnaktivitäten identifizieren konnte, die an höhere Areale gesendet werden. Um Vorhersagefehler bei den Probanden zu provozieren, zeigte man diesen Mooney Gesichter, also Fotos von Gesichtern, die ganz auf schwarze und weiße Flächen reduziert sind. Diese erkennen man meist mühelos, wobei man sogar Angaben über Geschlecht, Alter und Gesichtsausdruck machen kann, obwohl lediglich der Verlauf der schwarz-weißen Grenze Informationen über das Gesicht enthält, wobei auch diese minimalen Informationen zweideutig sind, denn diese Grenzen stellen entweder Übergänge zwischen Licht und Schatten dar oder sie begrenzen das Objekt selbst. Dabei setzte man Mooney Gesichter ein, die gezielt zwei Erwartungen enttäuschten: erstens, dass man Gesichter immer aufrecht sieht, und zweitens, dass das Licht von oben einfällt, wodurch sich die Gesichtserkennungsleistung deutlich verschlechtert und verlangsamt. Die Predictive Coding-Theorie besagt dabei, dass Signale nur zur Verarbeitung in höhere Hirnregionen gesendet werden müssen, wenn Vorhersagen nicht erfüllt sind. Es zeigte sich, dass die Fehlerhirnwellen umso stärker waren, je langsamer das Erkennen war, dass also diese Gehirnwellen nicht nur eine Korrektur einleiten, sondern ursächlich an der Wahrnehmung beteiligt sind.
Wie das menschliche Gehirn eine Person wahrnimmt, hängt aber nicht nur von den objektiv messbaren Gesichtszügen ab, sondern auch von stereotypen Erwartungen, sodass das Gehirn Gesichter so verarbeitet, dass sie Vorurteilen und Klischees entsprechen, und daher solche verinnerlichten Vorstellungen das Verhalten beeinflussen. Raffinierte Experimente (Stolier & Freeman, 2016) zeigen, dass gelernte Vorurteile und Klischees vermutlich sogar im visuellen System des Gehirns (Gyrus fusiformis) verankert sein dürften. Daher sind es oft Vorurteile, die die visuelle Verarbeitung von Gesichtern verzerren, sodass Menschen das sehen, was ihren Erwartungen entspricht. Diese visuelle Stereotypisierung trägt sogar dazu bei, vorhandene Vorurteile weiter zu verstärken. Untersuchungen haben auch gezeigt, dass die emotionale Wahrnehmung von Gesichtern auch vom Faktor Vertrautheit abhängt, denn das Gehirn mag vertraute Dinge, die zum einen Sicherheit bedeuten, zum anderen ist bereits Bekanntes auch leichter zu verarbeiten. Dabei überdeckt die positive Reaktion auf Vertrautheit sogar objektive Bewertungskriterien. Ein bekanntes Gesicht muss etwa weniger objektiv fröhliche Merkmale aufweisen, um als freudig wahrgenommen zu werden als ein noch unbekanntes Gesicht. Offenbar färben vorangegangene Erfahrungen das Bild eines Menschen, das man sieht, ins Positive (Carr et al., 2017).
Das menschliche Bewusstsein fällt in wenigen Augenblicken ein Urteil darüber, ob einem Menschen zu Gesicht stehen oder nicht, das vor allem dann, wenn man auf unbekannte Menschen trifft. Dabei werden wohl evolutionär bedingt nach Abir et al. (2017) zwei Arten von Menschen spontan klassifiziert, einerseits Menschen mit Gesichtszügen, mit denen man Dominanz oder Bedrohung verbindet, andererseits solche, die Vertrauen ausstrahlen. Alle anderen Menschen werden in diesem Prozess mehr oder minder übersehen. In Experimenten zeigte man Proobanden in rascher Folge fortlaufend abwechselnd Bilder von geometrischen Figuren oder Gesichter. Die Teilnehmer mussten bei dem Versuch eine Taste drücken, wenn sie ein menschliches Gesicht erkannten. Am schnellsten wurden jene Gesichter wahrgenommen, die mit Dominanz und Bedrohung in Verbindung gebracht werden, sodass man schließen kann, dass Dominanz und potenzielle Bedrohung für die Gesichtserkennung offensichtlich oberste Priorität besitzen.
In einer Untersuchung zeigte sich übrigens, dass Menschen Fotos unvollständiger Gesichter attraktiver bewerten als solche, die ein ganzes Gesicht zeigen, denn die fehlenden Gesichtspartien wecken wohl die Fantasie der Betrachter und werden offenbar zu einer idealisierten Version des Abgebildeten zusammengefügt. Orghian & Hidalgo (2018) legten dazu ihren Probanden Fotos von verschiedenen Gesichtern vor, wobei diese Bilder vollständig, verschwommen oder sehr klein waren bzw. es war sogar nur ein Drittel des Gesichts zu sehen. Diese idealisierende Füllung von Lücken gilt vermutlich nur in Bezug auf menschliche Gesichter, denn bei Fotos von Blumen, Landschaften oder von Hunden ergab sich kein vergleichbarer Effekt. Offenbar werden Reize nur dann mit wohlwollendem Vorschuss bewertet werden, wenn diese menschliche Assoziationen wecken. Ähnlich positive Verzerrungen menschlicher Kognition richten sich übrigens auch auf das Selbst, denn so halten sich die meisten Menschen für freundlicher, ernsthafter oder warmherziger als der Durchschnitt.
Experimente zum Schlafmangel haben gezeigt, dass dieser das Gedächtnis beeinträchtigt und dadurch etwa bei Augenzeugen falsche Erinnerungen fördert. Ein Experiment von Beattie et al. (2016) belegt nun, dass es Menschen bei Schlafmangel schwerer fällt, Gesichter anderer zu erkennen und zuzuordnen. In diesem Versuch sahen ausgeschlafenen oder unter Schlafmangel leidende Probanden jeweils zwei Portraitfotos gleichzeitig, die entweder die gleiche Person mit etwas anderer Mimik oder Perspektive oder aber zwei verschiedenen Personen darstellten, die sich nur ähnlich sahen, wobei die Probanden angeben mussten, ob es sich um dieselbe Person handelt oder nicht. Probanden mit Schlafmangel schnitten bei dabei schlechter ab, wobei die Unausgeschlafenen besonders häufig falsch-positiv tippten und Bilder einander nur ähnlicher Personen irrtümlich für Portraits desselben Menschen hielten. Das belegt, dass die negativen Effekte des Schlafmangels auf die Gesichtserkennung nicht allein auf ein beeinträchtigtes Gedächtnis zurückgehen, sondern vermutlich gibt es auch Defizite im der Verarbeitung von Wahrnehmungen. Der Schlafmangel bewirkte übrigens auch deutliche Unterschiede in der Selbsteinschätzung der Probanden, denn diejenigen, die unter Schlafmangel litten, waren zuversichtlicher, mit ihren Urteilen richtig zu liegen als die Ausgeschlafenen, obwohl es sich genau umgekehrt verhielt.
Übrigens aktiviert das Gehirn von Autofans beim Betrachten von Fahrzeugen dieselbe Region im Gehirn (Fusiform Face Area), die auch für das Erkennen von Gesichtern zuständig ist. Bekanntlich erleben schon Kinder die Frontpartien von Autos als Gesichter, wobei für sie manche freundlich, manche eher grimmig dreinblicken. Auch können manche Menschen sofort Marke und Modell eines Fahrzeugs bestimmen, sodass Forscher nach der jenem Gehirnareal suchten, die für diese Art von Spezialwissen zuständig sein könnte. In einem Versuch präsentierte man männlichen Probanden, die in einem Gehirnscanner lagen, auf einem Bildschirm je eine halbe Sekunde lang zwei Autos aus unterschiedlichen Perspektiven, wobei für jedes der achtzig Autopaare beurteilt werden sollte, ob es sich um dasselbe Modell handelte. Dabei zeigte sich, dass nicht die Sehareale des Gehirns für die richtige Entscheidung verantwortlich waren sondern das Stirnhirn, das die Sinneseindrücke danach interpretiert. Offenbar entstehen solche Spezialkenntnisse im Gehirn erst auf einer höheren Verarbeitungsebene. Schon vor etlichen Jahren ist entdeckt worden, dass bei Menschen, die gut zwischen verschiedenen Autotypen unterscheiden können, das fusiforme Gesichtsareal besonders aktiv ist, also jenes Areal im Schläfenlappen, das für die Gesichtserkennung zuständig ist. Jedoch stellte man auch fest, dass bei Autokennern das Gesichtsareal auch dann beim Anblick von Fahrzeugen aktiv ist, wenn diese Fahrzeug lediglich von der Seite oder von hinten zu sehen bekamen. Daher konnte es nicht daran liegen, dass die Front eines Autos an ein Gesicht erinnert. Dieses Gesichtsareal ist also nicht allein für die Gesichtserkennung zuständig, sondern es ist vermutlich nur darauf spezialisiert, ganz grundsätzlich zwischen ähnlichen Objekten einer Kategorie zu unterscheiden, gleichgültig, ob es sich um verschiedene Gesichter oder verschiedene Fahrzeuge handelt. Um die Wahrnehmung für eine Kategorie von Objekten derart zu schulen, genügen Studien zufolge schon acht bis zehn Stunden Training, denn dann springt die Spezialeinheit für Gesichter auch auf Autos an. Allerdings benötigen Menschen mit Autoexpertise überdurchschnittlich lange, um im Umfeld von Autos auch Gesichter zu entdecken, denn offenbar beanspruchen Fahrzeuge dieselben Ressourcen im Gehirn, die für Gesichter reserviert sind.
Eine Studie zur Psychologie von bekannten Marken belegte zusätzlich, dass deren Wahrnehmung ähnlichen psychologischen Mechanismen folgt, wie die Wahrnehmung von menschlichen Gesichtern. Dabei verglich man die Reaktionen auf Marken wie Coca Cola, Rolex, Porsche oder Apple und auf computergenerierte Gesichter, wobei die Probanden beide Motive nach Kategorien wie Vertrauenswürdigkeit, Fürsorglichkeit, Stärke oder Durchsetzungsvermögen beurteilen sollten. Es zeigte sich, dass ein Großteil der Wahrnehmung sowohl von Markenzeichen als auch von Gesichtern durch zwei grundlegende Dimensionen bestimmt wird: Bei der einen Dimension handelt es sich um die allgemeine Bewertung, die besagt, wie vertrauenswürdig und dem Betrachter gegenüber wohlgesonnen Personen oder Marken eingeschätzt werden, während die andere Dimension den Eindruck von Stärke betrifft, also die Einschätzung der Fähigkeit, Absichten auch umzusetzen.
Viele Menschen kennen das Phänomen, dass sie sich leicht an ein Gesicht eines Menschen erinnern, den sie vor langer Zeit gesehen haben, aber nicht mehr den Namen finden. Das liegt daran, dass das menschliche Gedächtnis für die Gesichtserkennung prädestiniert ist. Wenn Menschen jemanden in einer Menschenmenge suchen, schauen sie in viele Gesichter, bevor sie das gesuchte Gesicht entdecken. In einer Untersuchung (Kaunitz et al., 2016) ließ man Probanden am Computerbildschirm nach einem bestimmten Gesicht in einer Menschenmenge suchen, währenddessen man die Augenbewegungen registrierte und auch, welche Personen im Bild angeblickt worden waren. Danach wurde erhoben, an welche Gesichter sich die Probanden erinnerten und wie sicher sie sich ihrer Erinnerung waren. Dabei zeigte sich, dass die Probanden bis zu sieben der fremden Gesichter wiedererkannten, die sie bei ihrer Suche nach der Zielperson angeblickt hatten, obwohl sie während der Suche nicht wussten, dass sie später nach diesen befragt würden. Auch waren sich die Testpersonen ihrer Sache sehr sicher, was belegt, dass sie sich tatsächlich bewusst an die gesehenen Personen in der Menschenmenge erinnerten. Man schließt daraus, dass das menschliche Gedächtnis auch beiläufige Bilder zumindest kurzzeitig behält und diese nicht wieder sofort löscht. Dies macht insofern natürlich Sinn, damit man bei der Suche nach einem bekannten Gesicht die schon überprüften Gesichter nur noch kurz überfliegen muss, um diese von einer nochmaligen näheren Betrachtung auszuschließen.
Menschen mit mehr sozialen Kontakten können besser Gesichter erkennen
Lesen bedient sich desselben Gehirnareals wie die Gesichtserkennung
Eine Studie von Vidal et al. (2020) hat jüngst gezeigt, dass die Grundlage, eine Schrift zu lesen, auf dem evolutionär alten Mechanismus beruht, wiederkehrende Muster zu erkennen und als bekannt wahrzunehmen. Lesen ist für das Gehirn eine äußerst spruchsvolle Aufgabe, denn es muss Formen als Buchstaben erkennen, die in bestimmten Kombinationen spezifische Laute repräsentieren und auch einen Sinn ergeben. Erste menschliche Schriftsprachen haben sich erst vor rund fünftausend Jahren entwickelt, sodass dieser Zeitraum evolutionsgeschichtlich viel zu kurz ist, als dass sich das menschliche Gehirn an diese Herausforderung hätte anpassen können. Anders als in klassischen Studien zu dieser Thematik verwendete man als Stimuli nicht buchstabenartige Zeichen, sondern geometrische Gebilde und Gitterformen. Wenn nämlich das Lesen auf allgemeinen visuellen Mechanismen beruht, sollten einige Effekte, die auftreten, wenn man es mit orthografischen Zeichen zu tun hat, auchdann auftreten, wenn man mit nicht-orthografischen Stimuli konfrontiert ist. In der Studie machten sich die Probanden zunächst mit kurzen Wörtern vertraut, die jeweils aus drei buchstabenähnlichen Zeichen bestanden, wobei die Zeichen zwar einer Schrift ähnelten doch keine Bedeutung hatten. Danach wurden bekannte und neue Kombinationen dieser Pseudobuchstaben präsentiert und die Probanden sollten angeben, welche der Wörter richtig und welche falsch waren. Die Teilnehmer lernten dabei, Wörter in dieser künstlichen Sprache daran zu erkennen, wie häufig bestimmte Teile zusammen auftraten, und identifizierten Wörter, die aus häufigeren Paaren von Pseudobuchstaben bestanden, leichter als korrekt. Auch bei Wiederholungen der Versuche mit dreidimensionalen Objekten und verschiedenen Gitterforme konnten die Probanden passende und unpassende Stimuli voneinander unterscheiden. Damit bestätigten sich frühere Forschungsergebnisse, die gezeigt hatten, dass im Gehirn der linke fusiforme Gyrus, ein Teil der Großhirnrinde sowohl beim Lesen als auch beim Erkennen von Objekten und hier insbesondere bei Gesichtern aktiv ist. Offenbar ist von der Logik des menschlichen Gehirns her entscheidend, überhaupt Regelmäßigkeiten zu erkennen und ihnen eine Bedeutung zu verleihen, d. h., es gibt eine adaptive Einstellung auf Reize, die regelmäßig auftreten.
Auch manche Tiere verfügen über Gesichtserkennung
Eine Studie (Dilks et al., 2015) zeigte, dass auch Hunde über eine Region im Gehirn (dog face area) verfügen, die auf die Verarbeitung von Gesichtern spezialisiert ist. Eine solche Spezialisierung kannte man bisher nur von Primaten, und auch bei Schafen fand man einzelne Neuronen, die verstärkt auf Gesichter reagierten. Man zeigte in einem Versuch Hunden im Magnetresonanztomografen Bilder und Videos von Menschen- und Hundegesichtern sowie von verschiedenen Gegenständen, wobei eine bestimmte Region im Schläfenlappen stärker aktiv war, wenn sie die tierischen und menschlichen Gesichter betrachteten, als wenn sie die neutralen Objekte ansahen. Man vermutet, dass dieses Areal ein Grund dafür sein könnte, dass die Tiere so extrem sensibel auf die sozialen Signale ihrer BesitzerInnen reagieren und auch über die eigene Artgrenze hinaus sehr sozial sind. Eine spezielle Reaktion im Belohnungszentrum stellte sich beim Anblick der Gesichter allerdings nicht ein, was darauf hindeutet, dass es sich nicht bloß um eine erlernte Reaktion des Gehirns handelt, weil etwa ein menschliches Gesicht mit Futter assoziiert wird. Auf Grund der extremen Versuchssituation im MRT sind diese Ergebnisse allerdings noch mit Vorsicht zu betrachten, denn die Tiere mussten zuvor ein spezielles Training absolvieren, damit sie auch ohne Beruhigungsmittel bewegungslos in der lauten Maschine verharrten. Auch sind Hunde nicht gewohnt, mit zweidimensionalen Bildern zu interagieren.
Eine experimentelle Studie von Kret & Tomonaga (2016) an Schimpansen zeigte übrigens, dass für Affen Hinterteile beim Erkennen eine ganz entscheidende Rolle spielen, denn die Tiere erkennen einander daran genauso schnell wie am Gesicht. Die Rückansicht liefert den Affen wichtige Informationen über ihr Gegenüber, denn so zeigt etwa das Hinterteil von Weibchen an, ob diese gerade fruchtbar sind, denn dabei schwillt ihre Analregion an und färbt sich rosa. Männchen müssen das schnell erkennen und auch wissen, zu wem der Hinterteil gehört, um Inzucht zu vermeiden. Vermutlich greifen Affen beim Erkennen von Hinterteilen auf eine Art Abkürzung im Gehirn zurück, wie das auch Menschen beim Erkennen von Gesichtern tun. Diese Abkürzung sorgt dafür, dass die für die Identifizierung bedeutsamen Körperteile schnell erkannt werden.
Studien zeigen übrigens, dass auch Schafe fortgeschrittene Fähigkeiten zur Gesichtserkennung haben, durchaus vergleichbar mit denen von Menschen und Affen, denn Schafe sind soziale Tiere, die andere Mitglieder ihrer Herde und vertraute Menschen problemlos wiedererkennen. Nachdem Tiere einmal Gesichter gelernt hatten, war es ihnen sogar möglich, auch Bilder von diesen Menschen, die aus ungewohnten Blickwinkeln aufgenommen worden waren, in zwei Drittel aller Fälle richtig zu erkennen.
Nawroth et al. (2018) haben gezeigt, dass auch Ziegen freundliche Gesichter bevorzugen. In ihrer Studie prüften sie, ob und wie Ziegen Gesichtsausdrücke von Menschen erkennen und ob sie dadurch ihr Verhalten ändern. Es zeigte sich, dass Ziegen nicht nur unterscheiden, ob ein Mensch auf einem Bild fröhlich oder wütend dreinblickt, sondern sie zeigten auch eine Präferenz für freundliche Gesichter. Ziegen wurden in dem Experiment mit Porträtfotos von Menschen konfrontiert, wobei jeweils zwei Bilder derselben Person nebeneinander angebracht waren, auf der einen Seite freundlich lächelnd, auf der anderen Seite mit wütendem Gesichtsausdruck. Es zeigte sich, dass die Tiere signifikant stärker auf die freundlichen Gesichter reagierten, indem sie sich den Bildern näherten und sie teilweise mit der Schnauze berührten. Vor allem zeigten sie diese Präferenz, wenn sich das lächelnde Porträt auf der rechten Seite befand, was darauf hindeutet, dass Ziegen menschliche Emotionen mit der linken Gehirnhälfte verarbeiten.
Siehe dazu das Gesichtserkennungsphänomen.
Literatur
Abir, Y., Sklar, A. Y., Dotsch, R., Todorov, A. & Hassin, R. R. (2017). The determinants of consciousness of human faces. Nature Human Behaviour, doi: 10.1038/s41562-017-0266-3.
Ambrus, Géza Gergely, Eick, Charlotta Marina, Kaiser, Daniel & Kovács, Gyula (2021). Getting to know you: emerging neural representations during face familiarization. The Journal of Neuroscience, doi:10.1523/JNEUROSCI.2466-20.2021.
Beattie, L., Walsh, D., McLaren, J., Biello, S. M. & White, D. (2016). Perceptual impairment in face identification with poor sleep. Royal Society Open Science, doi: 10.1098/rsos.160321.
Brodski, Alla, Paasch, Georg-Friedrich, Helbling, Saskia & Wibral, Michael (2015). The Faces of Predictive Coding Journal of Neuroscience, 35, 8997–9006. DOI: 10.1523/JNEUROSCI.1529-14.2015.
Carr, Evan W., Brady, Timothy F. & Winkielman, Piotr (2017). Are You Smiling, or Have I Seen You Before? Familiarity Makes Faces Look Happier. Psychological Science, doi: 10.1177/0956797617702003.
Chang, Le & Tsao, Doris Y. (2017). The Code for Facial Identity in the Primate Brain. Cell, 169, 1013-1028.
Dilks, D.D., Cook, P., Weiller, S.K., Berns, H.P., Spivak, M. & Berns G.S. (2015). Awake fMRI reveals a specialized region in dog temporal cortex for face processing. PeerJ 3:e1115 https://dx.doi.org/10.7717/peerj.1115.
Dobs, K., Martinez, J., Kell, A.J.E. & Kanwisher, N. (2022). Brain-like functional specialization emerges spontaneously in deep neural networks. Science Advances, 8, doi:10.1126/sciadv.abl8913.
Dunn, James D., Varela, Victor P. L., Nicholls, Victoria I., Papinutto, Michael, White, David & Miellet, Sebastien (2022). Face-Information Sampling in Super-Recognizers. Psychological Science, 33, doi: 10.1177/09567976221096320.
Jesse Gomez, Michael A. Barnett, Vaidehi Natu, Aviv Mezer, Nicola Palomero-Gallagher, Kevin S. Weiner, Katrin Amunts, Karl Zilles, Kalanit Grill-Spector (2016). Microstructural proliferation in human cortex is coupled with the development of face processing. Science, 355, 68-71.
Kaunitz, L.N., Rowe, E.G. & Tsuchiya, N. (2016). Large capacity of conscious access for incidental memories in natural scenes. Psychological Science, doi:10.1177/0956797616658869.
Kret, M. E. & Tomonaga, M. (2016). Getting to the Bottom of Face Processing. Species-Specific Inversion Effects for Faces and Behinds in Humans and Chimpanzees (Pan Troglodytes). PLoS ONE 11(11): e0165357, doi:10.1371/journal.pone.0165357.
Nawroth, Christian, Albuquerque, Natalia, Savalli, Carine, Single, Marie-Sophie & McElligott, Alan G. (2018). Goats prefer positive human emotional facial expressions. Royal Society Open Science, 5, doi:10.1098/rsos.180491.
Orghian, Diana & Hidalgo, César, (2018). Worse Than You Think: Positivity Bias in Evaluations of Human Facial Attractiveness (April 13,). Scientific Reports, doi:10.2139/ssrn.3162479.
Ota, Chisa & Nakano, Tamami (2021). Self-Face Activates the Dopamine Reward Pathway without Awareness. Cerebral Cortex, doi:10.1093/cercor/bhab096.
Reid, Vincent M., Dunn, Kirsty, Young, Robert J., Amu, Johnson, Donovan, Tim & Reissland, Nadja (2017). The Human Fetus Preferentially Engages with Face-like Visual Stimuli. Current Biology, doi: 10.1016/j.cub.2017.05.044.
Rodrigo Quian Quiroga, R. Q., Kraskov, A., Mormann, F., Fried, I. & Koch, C. (2014). Single-Cell Responses to Face Adaptation in the Human Medial Temporal Lobe. Neuron. DOI: 10.1016/j.neuron.2014.09.006.
Sierks, J.-C. (2020). So entsteht der Autokennerblick.
WWW: https://www.shots.media/cars/2020/so-entsteht-der-autokennerblick/70773 (20-11-29)
Stangl, B. (2022, 22. September). Künstliche Intelligenz und Gesichtserkennung. Soziale Robotik.
https://sozialerobotik.stangl.wien/kuenstliche-intelligenz-und-gesichtserkennung/
Stangl, W. (2022, 19. März). Evolutionären Gesichtserkennung in neuronalen Netzen nachgestellt. Psychologie-News.
https:// psychologie-news.stangl.eu/4113/evolutionaeren-gesichtserkennung-in-neuronalen-netzen-nachgestellt
Stangl, W. (2024, 29. Juni). Menschen mit mehr sozialen Kontakten können besser Gesichter erkennen. was stangl bemerkt ….
https:// bemerkt.stangl-taller.at/menschen-mit-mehr-sozialen-kontakten-koennen-besser-gesichter-erkennen
Stolier, Ryan M. & Freeman, Jonathan B. (2016). Neural pattern similarity reveals the inherent intersection of social categories. Nature Neuroscience, doi:10.1038/nn.4296.
Vidal, Yamil, Viviani, Eva, Zoccolan, Davide & Crepaldi, Davide (2020). A general-purpose mechanism of visual feature association in visual word identification and beyond. Current Biology, doi: 10.1016/j.cub.2020.12.017.