Gesichtserkennung

 

Imago est animi vultus.
Cicero

Gesichtserkennung ist grundsätzlich eine Fähigkeit des Menschen, die er nicht erlernen muss, sondern diese Funktion des Gehirns ist angeboren. Man weiß übrigens seit einiger Zeit auch um das Sehvermögen von Föten und dass es innerhalb der Gebärmutter keineswegs vollständig dunkel ist. Reid et al. (2017) projizierten daher Lichtmuster in den Uterus von Frauen im letzten Drittel ihrer Schwangerschaft, wobei sich zeigte, dass auch schon Ungeborene auf Gesichter besonders interessiert reagieren. Die Reaktion der Föten auf die Lichtmuster – stark vereinfachte Gesichtsdarstellungen, die richtig- und falsch angeboten wurden – konnten dann mittels Ultraschall erfasst werden. Ungeborene drehten dabei den Kopf deutlich häufiger in Richtung der „Gesichter“ als in die anderer Muster, wobei kopfstehenden Gesichter bekanntlich ein Muster darstellen, auf das auch später die menschliche Gesichtserkennung nicht reagiert. Man vermutet daher, dass die Präferenz für Gesichter bereits im Mutterleib beginnt und keines Lernprozesses nach der Geburt bedarf.

Gesichter sind ein zentraler Aspekt der Umwelt, wobei nach der Geburt in den ersten Lebenswochen die Augen eines Säuglings auf Objekte fokussiert sind, die sich in einem Abstand wie das Gesicht einer stillenden Mutter befinden. Man vermutet daher, dass es im Gehirn einen angeborenen Mechanismus gibt, der die Aufmerksamkeit von Babys auf Gesichter lenkt, denn Säuglinge sind bekanntlich von Gesichtern länger als von anderen Mustern gefesselt. Mit der Zeit und wachsender Erfahrung wird diese Reaktion jedoch immer spezialisierter, wobei sich später Erwachsene manchmal schwer damit tun, zwei Gesichter zu unterscheiden, die auf dem Kopf stehen. Nach Untersuchungen mittels EEG macht es für Kinder unter vier Monaten noch keinen Unterschied, ob sie die Gesichter aufrecht oder verkehrt herum sehen, und erst jenseits dieser Altersgrenze beginnen sie, Gesichter in gewohnter Orientierung zu bevorzugen. Im Alter von sechs Monaten ähneln die EEG-Reaktionen von Kindern, die Gesichter sehen, bereits denen von Erwachsenen. Zwar weiß man seit der Gestaltpsychologie, dass Menschen bei er Gesichtserkennung in fixen Kategorien denken, doch nun haben Neurobiologen experimentell nachgewiesen haben, wie es dem Gehirn genau gelingt, solche Konstanten in einer sich ändernden Umwelt rasch zu identifizieren und als solche zu erkennen: dieses automatische Denken erfolgt in Ensembles von etwa 50 bis 100 miteinander verschalteter Zellen, die relativ stabile Muster abbilden. Menschen sind daher von Natur aus Experten für die Wahrnehmung von Gesichtern, da die Gesichtserkennung eine wichtige Stütze des sozialen Zusammenlebens darstellt, wobei Kinder diese Fähigkeit weiterentwickeln müssen. Theoretisch gibt es zwei Standpunkte: der erst besagt, dass der Prozess der Gesichtserkennung etwa im Alter von fünf Jahren weitgehend abgeschlossen ist, und dass danach Menschen nur noch besser im Erkennen von Gesichtern werden, weil das Gedächtnis und die Aufmerksamkeit ebenfalls leistungsfähiger werden. Der zweite Ansatz geht davon aus, dass das menschliche Gehirn seine Leistung in der Gesichtserkennenung durch Lernen bis ins Alter kontinuierlich steigert. Neuere Untersuchungen zeigen nun, dass die Fähigkeit zur Gesichtserkennung im Gehirn sich im Lauf der Entwicklung immer weiter verfeinert, sodass Menschen erst durch diese stetige Weiterentwicklung in der Lage sind, andere Menschen auch dann noch zu unterscheiden, wenn sie sich sehr ähnlich sehen, oder auch Menschen sogar dann wiederzuerkennen, wenn sie sich äußerlich etwa durch einen neuen Bart oder Haarschnitt verändert haben. Zuständig für die Gesichtserkennung ist der Gyrus fusiformis, eine Gehirnwindung der Großhirnrinde des Schläfenlappens. Bei einer genaueren funktionalen Magnetresonanztomografie identifizierte man jüngst für die Gesichterkennung den ventral temporalen Cortex im Gyrus fusiformis, für die Ortserkennung den collateralen Sulcus an der Grenze zum Gyrus fusiformis. Dabei fand man auch, dass die relative Größe des zustän­digen Bereichs für Gesichtserkennung im Gehirn zunimmt, während das Gehirnareal für Ortserkennung keinen Zuwachs verzeichnet. Gehirnbereiche, die für die Gesichts- und Ortserkennung zuständig sind, entwickeln sich offenbar unterschiedlich (Gomez et al., 2016).

Vor einigen Jahren wurde übrigens die Hypothese verworfen, dass es gewissermaße für jeden Menschen im Gehirn eine Zelle oder einen Zellverband gibt, der für das Wiedererkennen verantwortlich ist (Theorie der Großmutterzelle). Allerdings zeigen neuere Untersuchungen von Rodrigo Quian Quiroga et al. (2014) mit Hilfe eines raffinierten Experiments, bei denen man auf Menschen mit starker Epilepsie zurückgreifen konnte und denen zur Diagnose und Behandlung zeitweilig Elektroden in bestimmte Gehirnareale eingesetzt worden waren, dass es für bekannte Gesichter möglicherweise doch ein einzelnes Neuron gibt, die ein sofortiges Wiedererkennen bewirkt. Diese bei den Patienten implantierten Elektroden leiten die Signale einzelner Neuronen weitaus genauer ab als außen am Schädel sitzende Elektroden, mit denen man meist arbeitet. Man zeigte zehn Probanden zunächst Portraitbilder von bekannten Prominenten wie Angelina Jolie, Bob Marley, Bill Clinton oder Arnold Schwarzenegger. Anschließend sahen die Teilnehmer für kurze Zeit ein Portrait, dessen Gesichtszüge mittels eines Grafikprogramms aus zwei prominenten Gesichtern zusammengefügt worden war, etwa ein Mischgesicht aus Angelina Jolie und Halle Berry oder aus Arnold Schwarzenegger und Sylvester Stallone. Durch einen Klicker mussten die Teilnehmer angeben, welchen der beiden gemorphten Gesichter sie zuerst erkannten. Dabei ließ sich an der Aktivität ihrer Hirnzellen ablesen, welche der beiden Komponenten die Teilnehmer erkannten. Erkannten sie etwa Angelina Jolie im Mischbild, feuerte nur das Neuron im Gesichtserkennungsareal des Schläfenlappens, das auch schon zuvor bei Portraits dieser Schauspielerin reagiert hatte, umgekehrt blieb dieses Neuron stumm, wenn die Probanden im Mischbild zuerst Halle Berry erkannt hatten. Dafür feuerte nun das für Halle Berry zuständige Neuron, und zwar genauso stark, als wenn die Probanden ein normales, nicht gemorphtes Bild der Schaupsielerin gesehen hätten. Die Ergebnisse bestätigen einerseits, dass die Neuronen in diesem Areal des Gehirns für die Gesichtserkennung und für das Erkennen von bekannte Gesichter entscheidend sind, zum anderen aber zeigten sie, dass diese Neuronen bei bekannten Gesichtern tatsächlich weniger die einzelnen visuellen Merkmale der Gesichter signalisieren, sondern dass direkt jene Neuronen reagieren, die die Erinnerung an eine bestimmte Person repräsentieren. Offensichtlich gibt es die berühmte Großmutterzelle doch, d. h., dass man nicht eine Kombination von visuellen Merkmalen wahrnimmt, sondern direkt das Gesicht der bekannten Person.

Alles, was nur entfernt wie ein Gesicht aussieht, löst einen Erkennungsmechanismus aus, weshalb Menschen manchmal auch dort Gesichter sehen, wo gar keine sind, etwa in Wolken oder Bäumen. Das Gehirn analysiert in weniger als 100 Millisekunden die Mimik des Gesicht, ordnet ihm bestimmte Persönlichkeitseigenschaften zu und zieht daraus seine Schlüsse, d.h., innerhalb von Sekundenbruchteilen analysiert es etwa die Gefühlslage des Gegenüber, um sich intuitiv darauf einzustellen. Bekanntlich findet man Menschen mit einer ähnlichen Mimik spontan sympathischer, und Untersuchungen zeigen, dass Freunde ihre Mimik spontan angleichen, wenn sie sich treffen. So werden Gesichter mit großen, auseinanderstehenden Augen, die an Kindergesichter erinnern, sofort als vertrauenswürdig empfunden, während Gesichter mit eng beieinander stehenden Augen und einem kantigen Kinn aggressiv wirken. Dieses rasche Urteil kann auch der Verstand nicht mehr korrigieren, der sich nach etwa einer Drittelsekunde unbewusster Verarbeitung dazuschaltet, d.h., ein Gesicht neutral zu betrachten, ist für den Menschen auch dann kaum möglich, wenn er sich genau das vornimmt. Zu Beginn einer jeden Begegnung und eines jeden Gesprächs wird auch die Glaubhaftigkeit des Gegenübers eingeschätzt wird, was etwa innerhalb einer Sekunde völlig unbewusst über eine Analyse des Gesichtsausdrucks (Augen- und Mundstellung), der Tönung der Stimme (Prosodie), aber auch Körpergeruch und Körperhaltung geschieht.

mooney-GesichterDie Gesichtserkennung funktioniert vor allem deshalb, da das Gehirn ständig Vorhersagen über Objekte im Gesichtsfeld trifft und diese mit den hereinkommenden Informationen abgleicht, und nur wenn dabei Fehler auftreten, höhere Gehirnregionen bemüht, um die Prognosen anzupassen. Untersuchungen (Brodski et al., 2015) haben diese Vermutung bestätigt, indem man im Falle eines Vorhersagefehlers die Verstärkung von jenen Gehirnaktivitäten identifizieren konnte, die an höhere Areale gesendet werden. Um Vorhersagefehler bei den Probanden zu provozieren, zeigte man diesen Mooney Gesichter, also Fotos von Gesichtern, die ganz auf schwarze und weiße Flächen reduziert sind. Diese erkennen man meist mühelos, wobei man sogar Angaben über Geschlecht, Alter und Gesichtsausdruck machen kann, obwohl lediglich der Verlauf der schwarz-weißen Grenze Informationen über das Gesicht enthält, wobei auch diese minimalen Informationen zweideutig sind, denn diese Grenzen stellen entweder Übergänge zwischen Licht und Schatten dar oder sie begrenzen das Objekt selbst. Dabei setzte man Mooney Gesichter ein, die gezielt zwei Erwartungen enttäuschten: erstens, dass man Gesichter immer aufrecht sieht, und zweitens, dass das Licht von oben einfällt, wodurch sich die Gesichtserkennungsleistung deutlich verschlechtert und verlangsamt. Die Predictive Coding-Theorie besagt dabei, dass Signale nur zur Verarbeitung in höhere Hirnregionen gesendet werden müssen, wenn Vorhersagen nicht erfüllt sind. Es zeigte sich, dass die Fehlerhirnwellen umso stärker waren, je langsamer das Erkennen war, dass also diese Gehirnwellen nicht nur eine Korrektur einleiten, sondern ursächlich an der Wahrnehmung beteiligt sind.

Wie das menschliche Gehirn eine Person wahrnimmt, hängt aber nicht nur von den objektiv messbaren Gesichtszügen ab, sondern auch von stereotypen Erwartungen, sodass das Gehirn Gesichter so verarbeitet, dass sie Vorurteilen und Klischees entsprechen, und daher solche verinnerlichten Vorstellungen das Verhalten beeinflussen. Raffinierte Experimente (Stolier & Freeman, 2016) zeigen, dass gelernte Vorurteile und Klischees vermutlich sogar im visuellen System des Gehirns (Gyrus fusiformis) verankert sein dürften. Daher sind es oft Vorurteile, die die visuelle Verarbeitung von Gesichtern verzerren, sodass Menschen das sehen, was ihren Erwartungen entspricht. Diese visuelle Stereotypisierung trägt sogar dazu bei, vorhandene Vorurteile weiter zu verstärken. Untersuchungen haben auch gezeigt, dass die emotionale Wahrnehmung von Gesichtern auch vom Faktor Vertrautheit abhängt, denn das Gehirn mag vertraute Dinge, die zum einen Sicherheit bedeuten, zum anderen ist bereits Bekanntes auch leichter zu verarbeiten. Dabei überdeckt die positive Reaktion auf Vertrautheit sogar objektive Bewertungskriterien. Ein bekanntes Gesicht muss etwa weniger objektiv fröhliche Merkmale aufweisen, um als freudig wahrgenommen zu werden als ein noch unbekanntes Gesicht. Offenbar färben vorangegangene Erfahrungen das Bild eines Menschen, das man sieht, ins Positive (Carr et al., 2017).

Experimente zum Schlafmangel haben gezeigt, dass dieser das Gedächtnis beeinträchtigt und dadurch etwa bei Augenzeugen falsche Erinnerungen fördert. Ein Experiment von Beattie  et al. (2016) belegt nun, dass es Menschen bei Schlafmangel schwerer fällt, Gesichter anderer zu erkennen und zuzuordnen. In diesem Versuch sahen ausgeschlafenen oder unter Schlafmangel leidende Probanden jeweils zwei Portraitfotos gleichzeitig, die entweder die gleiche Person mit etwas anderer Mimik oder Perspektive oder aber zwei verschiedenen Personen darstellten, die sich nur ähnlich sahen, wobei die Probanden angeben mussten, ob es sich um dieselbe Person handelt oder nicht. Probanden mit Schlafmangel schnitten bei dabei schlechter ab, wobei die Unausgeschlafenen besonders häufig falsch-positiv tippten und Bilder einander nur ähnlicher Personen irrtümlich für Portraits desselben Menschen hielten. Das belegt, dass die negativen Effekte des Schlafmangels auf die Gesichtserkennung nicht allein auf ein beeinträchtigtes Gedächtnis zurückgehen, sondern vermutlich gibt es auch Defizite im der Verarbeitung von Wahrnehmungen. Der Schlafmangel bewirkte übrigens auch deutliche Unterschiede in der Selbsteinschätzung der Probanden, denn diejenigen, die unter Schlafmangel litten, waren zuversichtlicher, mit ihren Urteilen richtig zu liegen als die Ausgeschlafenen, obwohl es sich genau umgekehrt verhielt.

Übrigens aktiviert das Gehirn von Autofans beim Betrachten von Fahrzeugen dieselbe Region im Gehirn (Fusiform Face Area), die auch für das Erkennen von Gesichtern zuständig ist. Bekanntlich erleben schon Kinder die Frontpartien von Autos als Gesichter, wobei für sie manche freundlich, manche eher grimmig dreinblicken. Eine Studie zur Psychologie von bekannten Marken belegte zusätzlich, dass deren Wahrnehmung ähnlichen psychologischen Mechanismen folgt, wie die Wahrnehmung von menschlichen Gesichtern. Dabei verglich man die Reaktionen auf Marken wie Coca Cola, Rolex, Porsche oder Apple und auf computergenerierte Gesichter, wobei die Probanden beide Motive nach Kategorien wie Vertrauenswürdigkeit, Fürsorglichkeit, Stärke oder Durchsetzungsvermögen beurteilen sollten. Es zeigte sich, dass ein Großteil der Wahrnehmung sowohl von Markenzeichen als auch von Gesichtern durch zwei grundlegende Dimensionen bestimmt wird: Bei der einen Dimension handelt es sich um die allgemeine Bewertung, die besagt, wie vertrauenswürdig und dem Betrachter gegenüber wohlgesonnen Personen oder Marken eingeschätzt werden, während die andere Dimension den Eindruck von Stärke betrifft, also die Einschätzung der Fähigkeit, Absichten auch umzusetzen.

Viele Menschen kennen das Phänomen, dass sie sich leicht an ein Gesicht eines Menschen erinnern, den sie vor langer Zeit gesehen haben, aber nicht mehr den Namen finden. Das liegt daran, dass das menschliche Gedächtnis für die Gesichtserkennung prädestiniert ist. Wenn Menschen jemanden in einer Menschenmenge suchen, schauen sie in viele Gesichter, bevor sie das gesuchte Gesicht entdecken. In einer Untersuchung (Kaunitz et al., 2016) ließ man Probanden am Computerbildschirm nach einem bestimmten Gesicht in einer Menschenmenge suchen, währenddessen man die Augenbewegungen registrierte und auch, welche Personen im Bild angeblickt worden waren. Danach wurde erhoben, an welche Gesichter sich die Probanden erinnerten und wie sicher sie sich ihrer Erinnerung waren. Dabei zeigte sich, dass die Probanden bis zu sieben der fremden Gesichter wiedererkannten, die sie bei ihrer Suche nach der Zielperson angeblickt hatten, obwohl sie während der Suche nicht wussten, dass sie später nach diesen befragt würden. Auch waren sich die Testpersonen ihrer Sache sehr sicher, was belegt, dass sie sich tatsächlich bewusst an die gesehenen Personen in der Menschenmenge erinnerten. Man schließt daraus, dass das menschliche Gedächtnis auch beiläufige Bilder zumindest kurzzeitig behält und diese nicht wieder sofort löscht. Dies macht insofern natürlich Sinn, damit man bei der Suche nach einem bekannten Gesicht die schon überprüften Gesichter nur noch kurz überfliegen muss, um diese von einer nochmaligen näheren Betrachtung auszuschließen.

Eine Studie (Dilks et al., 2015) zeigte, dass auch Hunde über eine Region im Gehirn (dog face area) verfügen, die auf die Verarbeitung von Gesichtern spezialisiert ist. Eine solche Spezialisierung kannte man bisher nur von Primaten, und auch bei Schafen fand man einzelne Neuronen, die verstärkt auf Gesichter reagierten. Man zeigte in einem Versuch Hunden im Magnetresonanztomografen Bilder und Videos von Menschen- und Hundegesichtern sowie von verschiedenen Gegenständen, wobei eine bestimmte Region im Schläfenlappen stärker aktiv war, wenn sie die tierischen und menschlichen Gesichter betrachteten, als wenn sie die neutralen Objekte ansahen. Man vermutet, dass dieses Areal ein Grund dafür sein könnte, dass die Tiere so extrem sensibel auf die sozialen Signale ihrer BesitzerInnen reagieren und auch über die eigene Artgrenze hinaus sehr sozial sind. Eine spezielle Reaktion im Belohnungszentrum stellte sich beim Anblick der Gesichter allerdings nicht ein, was darauf hindeutet, dass es sich nicht bloß um eine erlernte Reaktion des Gehirns handelt, weil etwa ein menschliches Gesicht mit Futter assoziiert wird. Auf Grund der extremen Versuchssituation im MRT sind diese Ergebnisse allerdings noch mit Vorsicht zu betrachten, denn die Tiere mussten zuvor ein spezielles Training absolvieren, damit sie auch ohne Beruhigungsmittel bewegungslos in der lauten Maschine verharrten. Auch sind Hunde nicht gewohnt, mit zweidimensionalen Bildern zu interagieren.

Chang & Tsao (2017) haben bei Primaten (Makaken) den Code entschlüsselt, mit dem Nervenzellen die Besonderheiten von Gesichtern abbilden, wobei dieser äusserst einfach sein dürfte. Das Betrachten von Gesichtern wird bei Menschen und Primaten in speziellen Arealen im Schläfenlappen verarbeitet, wobei die darin befindlichen Nervenzellen nichts anderes tun, als Gesichter auszuwerten und reagieren auf keine anderen Objekte. Vermutlich haben sich diese spezialisierten Areale entwickelt, weil das Erkennen von fremd oder vertraut, feindlich oder wohlgesinnt für das Überleben unserer Vorfahren und der Primaten wichtig war. Diese Gesichtszellen von Affen reagieren aber auch auf menschliche Gesichter. Man verwendete 2000 Fotos von Gesichtern, für deren Darstellung 50 Parameter definiert wurden, wobei 25 Parameter die Gesichtsform, zum Beispiel den Augenabstand, beschrieben und 25 Aspekte des Erscheinungsbildes wie die Hautfarbe. Man präsentierte den Tieren die 2000 Gesichter und zeichnete die Aktivität von einzelnen Nervenzellen im Gesichtsareal des Gehirns auf, von denen einige jeweils auf bestimmte Parameter ansprachen. Eine Zelle reagierte etwa auf den Augenabstand, und zwar stärker auf eng stehende als auf weit auseinanderliegende Augen, eine andere reagierte auf die Hautfarbe proportional zur Helligkeit. Mithilfe eines Algorithmus berechneten man aus der Aktivität der Nervenzellen alle Merkmale und kreierte ein Phantombild, das das Original sehr gut repräsentierte. Allerdings waren die verwendeten Gesichter alle frontal abgebildet, nach Helligkeit genormt und zeigten keine Mimik, d. h., um die verschiedenen Erscheinungsformen von Gesichtern im Alltag abzubilden, benötigt es mehr als die in der Untersuchung kontrollierten 200 Nervenzellen.

Eine experimentelle Studie von Kret & Tomonaga (2016) an Schimpansen zeigte übrigens, dass für Affen Hinterteile beim Erkennen eine ganz entscheidende Rolle spielen, denn die Tiere erkennen einander daran genauso schnell wie am Gesicht. Die Rückansicht liefert den Affen wichtige Informationen über ihr Gegenüber, denn so zeigt etwa das Hinterteil von Weibchen an, ob diese gerade fruchtbar sind, denn dabei schwillt ihre Analregion an und färbt sich rosa. Männchen müssen das schnell erkennen und auch wissen, zu wem der Hinterteil gehört, um Inzucht zu vermeiden. Vermutlich greifen Affen beim Erkennen von Hinterteilen auf eine Art Abkürzung im Gehirn zurück, wie das auch Menschen beim Erkennen von Gesichtern tun. Diese Abkürzung sorgt dafür, dass die für die Identifizierung bedeutsamen Körperteile schnell erkannt werden.

Siehe dazu das Gesichtserkennungsphänomen.

Literatur

Beattie, L., Walsh, D., McLaren, J., Biello, S. M. & White, D. (2016). Perceptual impairment in face identification with poor sleep. Royal Society Open Science, doi: 10.1098/rsos.160321.
Brodski, Alla, Paasch, Georg-Friedrich, Helbling, Saskia & Wibral, Michael (2015). The Faces of Predictive Coding Journal of Neuroscience, 35, 8997–9006. DOI: 10.1523/JNEUROSCI.1529-14.2015.
Carr, Evan W., Brady, Timothy F. & Winkielman, Piotr (2017). Are You Smiling, or Have I Seen You Before? Familiarity Makes Faces Look Happier. Psychological Science, doi: 10.1177/0956797617702003.
Chang, Le & Tsao, Doris Y. (2017). The Code for Facial Identity in the Primate Brain. Cell, doi: 10.1016/j.cell.2017.05.011.
Dilks, D.D., Cook, P., Weiller, S.K., Berns, H.P., Spivak, M. & Berns G.S. (2015). Awake fMRI reveals a specialized region in dog temporal cortex for face processing. PeerJ 3:e1115 https://dx.doi.org/10.7717/peerj.1115.>
Jesse Gomez, Michael A. Barnett, Vaidehi Natu, Aviv Mezer, Nicola Palomero-Gallagher, Kevin S. Weiner, Katrin Amunts, Karl Zilles, Kalanit Grill-Spector (2016). Microstructural proliferation in human cortex is coupled with the development of face processing. Science, 355, 68-71.
Kaunitz, L.N., Rowe, E.G. & Tsuchiya, N. (2016). Large capacity of conscious access for incidental memories in natural scenes. Psychological Science, doi:10.1177/0956797616658869.
Kret, M.E. & Tomonaga, M. (2016). Getting to the Bottom of Face Processing. Species-Specific Inversion Effects for Faces and Behinds in Humans and Chimpanzees (Pan Troglodytes). PLoS ONE 11(11): e0165357, doi:10.1371/journal.pone.0165357.
Reid, Vincent M., Dunn, Kirsty, Young, Robert J., Amu, Johnson, Donovan, Tim & Reissland, Nadja (2017). The Human Fetus Preferentially Engages with Face-like Visual Stimuli. Current Biology, doi: 10.1016/j.cub.2017.05.044.
Rodrigo Quian Quiroga, R. Q., Kraskov, A., Mormann, F., Fried, I. & Koch, C. (2014). Single-Cell Responses to Face Adaptation in the Human Medial Temporal Lobe. Neuron. DOI: 10.1016/j.neuron.2014.09.006
Stolier, Ryan M. & Freeman, Jonathan B. (2016). Neural pattern similarity reveals the inherent intersection of social categories. Nature Neuroscience, doi:10.1038/nn.4296.





Falls Sie in diesem Beitrag nicht fündig geworden sind, können Sie mit der folgenden Suche weiter recherchieren:


Das Lexikon in Ihren Netzwerken empfehlen:

You must be logged in to post a comment.

Diese Seiten sind Bestandteil der Domain www.stangl.eu

© Werner Stangl Linz 2017