Zum Inhalt springen

peripheres Sehen

    Bekanntlich sehen Menschen in der Mitte ihres Sichtfeldes, also entlang der Blickachse, viel besser als in der Peripherie. Wenn das Gehirn aber ein interessantes Objekt in der Peripherie wahrnimmt, löst es sofort eine Augenbewegung aus, so dass die Blickachse durch das Objekt verläuft, damit dieses Objekt dann tiefenscharf wahrgenommen wird. Das liegt teilweise an der extremen Dichte der Fotorezeptoren im Zentralbereich der Netzhaut (Fovea), doch ist die Vorliebe der visuellen Wahrnehmung für die Mitte der Sichtfeldes auch im Gehirn repräsentiert.

    Im Detail: Die menschliche Wahrnehmung liefert für gewöhnlich ein sehr genaues Abbild der Umwelt, d. h., dieses Bild ist nicht verzerrt, obwohl ein betrachtetes Objekt verzerrt auf die Netzhaut projiziert wird, wobei der Grad der Verzerrung noch verstärkt wird, wenn sich die Blickrichtung vom Objekt weg bewegt, sich das Objekt also am Rande des Blickfelds befindet. Peripheres Sehen ist daher eine besondere Form der visueller Wahrnehmung, bei der nicht die zentrale Stelle der Netzhaut zum Fixieren eines Objekts benutzt wird, sondern dessen Wahrnehmung durch daneben gelegene Areale erfolgt, d. h., ein Betrachter schaut eigentlich am Objekt vorbei. Im Grunde liefert das periphere Sehen nur grobe unscharfe und optisch verzerrte Seheindrücke außerhalb des Fixationspunktes, doch durch Zusammenschaltung von Sehzellen zu Gruppen, wird dafür jedoch eine Abtastfrequenz bis zu 100 pro Sekunde erreicht, anstatt nur 3 bis 4 wie beim fovealen Sehen. Hinzu kommt, dass das periphere Gesichtsfeld im Vergleich zum zentralen Gesichtsfeld nur in einem relativ kleinen Bereich des visuellen Cortex repräsentiert ist. Die Verarbeitung in der Netzhaut und im Gehirn unterscheidet dabei deutlich zwischen zentralem und peripherem Gesichtsfeld, dennoch ändert sich für den Menschen die Wahrnehmung eines Objektes nicht, wenn es durch Augenbewegungen aus dem peripheren in das zentrale Gesichtsfeld gebracht wird. Man nimmt also seine visuelle Umgebung homogen wahr und bemerkt nicht die ständige Veränderung des räumlichen Auflösungsvermögens, die durch Augenbewegungen entsteht, was letztlich bedeutet, dass eine periphere Information vor und zentrale Information nach einer Augenbewegung kalibriert und integriert werden müssen.

    Obwohl der Wahrnehmungsprozess mit solch massiven Verzerrungen verbunden ist, hat der Mensch nicht das Gefühl, dass sich das Erscheinungsbild eines Objektes maßgeblich verändert, wenn die Blickrichtung geändert wird. Weder scheinen die Objekte größer zu werden beim direkten Hinschauen, noch sieht der Menschen sie beim Wegschauen kleiner werden. Dabei dienen vor allem Blickbewegungen dazu, die verschiedenen Bereiche des Gesichtsfelds gegeneinander abzugleichen, da Blickbewegung ein zunächst peripher betrachtetes Objekt in die Fovea bringt, also an die Stelle des schärfsten Sehens. Eine Studie (Valsecchi & Gegenfurtner, 2015) hat nun gezeigt, dass Konstanz in der Wahrnehmung kein Merkmal ist, das Menschen ein für alle Mal gegeben ist, sondern dass es vielmehr das Resultat eines stetigen Abstimmungsprozesses ist, der auch im Erwachsenenalter dafür sorgt, dass die Wahrnehmungserfahrungen immer wieder neu kalibriert werden. Um diese Lernfähigkeit des optischen Systems zu belegen, ließ man Probanden Objekte betrachten und veränderte die Größe dieser Objekte unbemerkt in dem Moment, in dem die Blickrichtung geändert wurde. Wie sich herausstellte, nahmen die Testpersonen nach einigen hundert Versuchsdurchgängen ein Objekt, das von den Forschern erst während der Augenbewegung vergrößert wurde, bereits vorab am Rande des Blickfelds als größer wahr. Das Gegenteil war der Fall, wenn die betrachteten Objekte in der Versuchsanordnung verkleinert wurden.

    Menschen sind darauf angewiesen, Handlungen von anderen Menschen schnell und zuverlässig zu erkennen, wobei sich vieles aus der Umgebung im Augenwinkel abspielt, also innerhalb des peripheren Sehens. Vor allem ist peripheres Sehen AutofahrerInnen von höchster Bedeutung, denn sie müssen bei Autos, Menschen und dem Schilderwald an den Straßenrändern blitzschnell wichtige Signale von unwichtigen unterscheiden und auch noch richtig reagieren. Bisher waren jene Gehirnprozesse nicht im Detail bekannt, die eine schnelle und gewichtete Verarbeitung von verschiedenen Merkmalen ermöglichen. Wissenschaftler (Schoenfeld et al., 2014) fanden mittels hochauflösender Magnetenzephalografie, wie die entsprechenden Reize in der Großhirnrinde verarbeitet werden, und zwar wird die Bindung von Eigenschaften wie Bewegung, Form und Farbe zu einem einheitlichen Objekt als schnelle und flexible Aufeinanderfolge stärkerer Aktivität in entsprechenden bewegungs- und farbsensitiven Hirn-Arealen umgesetzt. So ist es möglich, obwohl beim Autofahren der Blick geradeaus auf die Straße gerichtet ist, ein sich von einer Seitenstraße näherndes Fahrzeug zu beachten, wobei die verschiedenen einzelnen Eigenschaften schnell und effektiv als Einheit erscheinen. Beispielsweise erfolgt bei einem roten Auto die Verarbeitung eines relevanten Merkmals wie die Bewegungsrichtung wenige zehntel Millisekunden vor der Verarbeitung von irrelevanten Merkmalen, in dem Fall der roten Farbe des Autos, und fügt sich innerhalb kürzester Zeit zu einem einheitlichen Bild zusammen, sodass eine rasche Einschätzung möglich ist.

    Fademrecht et a.(2016) haben nun nachgewiesen, dass menschliche Handlungen in der Peripherie besser wahrgenommen werden als bisher gedacht, insbesondere wenn es um überlebenswichtige Informationen wie etwa feindselige Handlungen von Menschen geht. In einem Experiment saßen Probanden vor einer drei Meter hohen, gebogenen Panoramaleinwand, die ein Blickfeld von 230° abdeckt. Durch diese übergroße Leinwand wirkte das visuelle Feld so groß wie im realen Leben und die Probanden hatten das Gefühl, in der Szene anwesend zu sein. Die Versuchspersonen schauten geradeaus, während Avatare in Form lebensgroßer Strichmännchen am Sichtfeldrand verschiedene Bewegungen ausführten. Dabei maßen die Forscher auch per Eyetracking, ob die Probanden ihren Blick nach vorne richteten und nicht an die Seite schweifen ließen. Im Anschluss sollten die Versuchsteilnehmer angeben, ob die Handlung positiv oder negativ war, beziehungsweise welche Bewegung ausgeführt wurde. Das Repertoire der Strichmännchen reichte dabei von Faustschlägen, Ohrfeigen und Treten über Winken und Händeschütteln bis zur angedeuteten Umarmung. Zur Kontrolle zeigte man auch animierte Strichmännchen mit gänzlich bedeutungslosen Bewegungen, indem sie die Bewegung der Arme und der Beine vertauschten, sodass eine ähnliche Bewegungsenergie vorhanden war, jedoch keine erkennbare Bedeutung. Die Teilnehmer erkannten dabei Handlungen, die 45° von der Blickrichtung entfernt präsentiert wurden mit gleicher Genauigkeit wie Handlungen in direkter Blickrichtung. Die gute Erkennungsleistung lag nicht an der Bewegung selbst, sondern die Probanden erkannten selbst bewegungslose Bilder der Avatare besser als andere statische Objekte, wie geometrische Formen. Möglicherweise stecken hinter dieser selektiven Wahrnehmung evolutionäre Anpassungen, denn Handlungen anderer Menschen aus den Augenwinkeln erkennen zu können ist vermutlich deshalb so wichtig, weil man dadurch frühzeitig erkennt, ob eine sich nähernde Person gute oder schlechte Absichten hat.

    Hafed & Chen (2016) haben gezeigt, dass das Gehirn nicht nur zentrale und periphere Reize unterschiedlich verarbeitet, sondern auch visuelle Reize ober- und unterhalb des Horizonts, denn diese verschiedene Teile des Sichtfeldes sind im Colliculus superior (im Mittelhirn) asymmetrisch repräsentiert. Für das obere Sichtfeld steht auch mehr Gehirngewebe zur Verfügung als für das untere, sodass visuelle Reize oberhalb des Horizonts schärfer, präziser und schneller verarbeitet werden. Die 3D-Nervenzellen in diesen Arealen erhalten ihre Informationen aus dem unteren Bereich des Sichtfeldes, d. h., diese Zellen reagieren bevorzugt auf Objekte im nahen Bereich. Diese Prägung geschieht vermutlich durch Lernen, denn die Erfahrung zeigt, dass sich nahe Objekte meist im unteren Sichtbereich befinden. Das Gehirn weiß in der Regel auch, wie groß der Aktionsradius seines Trägers ist, wobei es dabei ganz unterschiedliche Methoden benutzt, um die relevante Entfernung abzuschätzen. Eine davon ist die Tiefenwahrnehmung durch dreidimensionales Sehen mit zwei Augen, wobei diese 3D-Tiefenwahrnehmung von speziellen Nervenzellen verarbeitet wird. Blicken nämlich beide Augen auf dieselbe Stelle, ergibt sich aus der Position der Augen ein winziger Unterschied im Blickwinkel, auf den die 3D-Nervenzellen reagieren.

    Über Stäbchen und Zapfen nimmt das menschliche Auge Lichtreize wahr und versorgt das Gehirn mit Informationen, einerseits über hell und dunkel und über Farben, doch sitzen in der Netzhaut noch weitere Zellen, die auf Licht empfindlich reagieren und eine wichtige Rolle für die Eichung der inneren Uhr spielen. Nach Mure et al. (2019) besitzen Menschen mindestens drei unterschiedliche Typen dieser Lichtsensoren, die eine wichtige Rolle für den menschlichen Schlaf-Wach-Rhythmus spielen. Diese reagieren unterschiedlich schnell auf Lichtreize, bleiben länger oder kürzer angeschaltet oder werden nur bei bestimmten Helligkeiten aktiv, wobei diese Lichtsensoren nicht nur mit dem Gehirn in Verbindung stehen, sondern sie arbeiten teilweise auch eng mit den anderen Zellen der Retina zusammen, wodurch sie den von den Stäbchen und Zapfen vermittelten Bildern ergänzende Informationen über Kontrast und Helligkeit hinzufügen. Das kann auch die Lichtempfindlichkeit der Ganglienzellen von manchen Blinden erklären, denn bei diesen passt sich trotz nicht funktionierender Zapfen und Stäbchen und somit de facto ohne Sehfähigkeit die innere Uhr der Betroffenen an den natürlichen Hell-Dunkel-Rhythmus an, d. h., diese Menschen müssen das Licht folglich irgendwie spüren.

    Wie das Gehirn Bewegung erkennt

    Bekanntlich registrieren die menschlichen Augen unentwegt eine Fülle von Sehreizen, von denen nur ein Teil an das Gehirn weitergeleitet wird. Das Auge bzw. das Gehirn muss aus den eingehenden Pixel-Intensitäten und ihren Veränderungen Objekte und Bewegungen berechnen, Informationen bewerten und dann ein entsprechendes Verhalten erzeugen. Yildizoglu et al. (2020) haben bei der Untersuchung des Gehirns von Zebrafischen herausgefunden, dass deren Gehirn vor allem auf verhaltensrelevante Reize reagiert und dabei andere Informationen ignoriert. Die Ergebnisse zeigen, dass bereits die Netzhaut des Auges die Sehinformationen entsprechend filtert, wobei so unterschiedliche Gehirne wie die von Zebrafischen, Affen oder Fliegen anscheinend ganz ähnliche Algorithmen nutzen, um verhaltensrelevante Informationen aus natürlichen Bildern zu extrahieren.

    Um herauszufinden, anhand welcher Merkmale visueller Szenen ein Gehirn Bewegungen erkennt, zeigte man den Fischen im Labor unruhige weiße und schwarze Muster, um so das visuelle System herauszufordern und die Verarbeitung von Bewegung genauer zu untersuchen. Indem man einzelne Komponenten dieser komplexen Muster variiert, kann man aufdecken, wann die Fische Bewegung erkennen, denn die Tiere zeigen durch die eigene Bewegung, dass sie eine Bewegung in ihrer Umwelt erkennen können.  Die Fische nahmen einige der Muster als Bewegung nach links wahr, doch als man alles Dunkle auf Hell und alles Helle auf Dunkel wechselte, nahmen die Fische die Reize plötzlich als Bewegung nach rechts wahr. Im durchsichtigen Fischgehirn kann man dabri beobachten, welche Hirnareale wann reagieren, wenn der Fisch ein Muster sieht oder wenn sich das Tier bewegen will. Die Untersuchungen zeigen, dass bereits die Nervenzellen der Netzhaut die Zusammenhänge und Statistiken des gezeigten Bildes berechnen, d. h., die Zellen extrahieren Bewegungsmuster-Signale, die sie dann an höhere Hirnregionen weiterleiten. Das Prätektum, eine zentrale Hirnregion, verarbeitet nur die Bildinformationen, die für eine Verhaltensreaktion wichtig sind. Die Ganglienzellen der Netzhaut scheinen optimal an das Verarbeiten der Informationen eines natürlichen Umweltbildes angepasst zu sein, wobei die Zellen ihre Bewegungserkennung anhand der statistischen Eigenschaften der realen visuellen Welt entwickelt und optimiert haben. Interessant ist, dass die Gehirne sehr unterschiedlicher Tierarten offenbar unterschiedliche Wege gefunden haben, um die gleiche Statistik zur Berechnung derselben Sache zu verwenden, denn nicht nur Zebrafische, sondern auch Fruchtfliegen und Primaten reagieren auf ähnliche Weise auf die komplexen Bewegungsmuster, die im Labor verwendet wurden. Offenbar sich sich die generellen Prinzipien und Algorithmen der visuellen Bewegungsverarbeitung bei verschiedenen Tierarten äußerst ähnlich sind.

    Zhaoping (2020) hat übrigens gezeigt, dass sich das Gehirn von Menschen im peripheren Blick so täuschen kann, dass ein senkrechter Balken fälschlicherweise als waagrecht erscheint (Stangl, 2020).


    Verdeckte Aufmerksamkeit

    Eine nicht unwesentliche Rolle beim peripheren Sehen spielt die verdeckte Aufmerksamkeit, was bedeutet, dass man etwas in seiner Umwelt genauer und schneller wahrnehmen kann, ohne dass man direkt hinschauen muss. Es geht also darum, eine Verlagerung des Aufmerksamkeitsfokus vorzunehmen, ohne dabei die Augen zu bewegen, was die Signalcodierung im visuellen Cortex vor Herausforderungen hinsichtlich der räumlichen Auflösung, der Signalweiterleitung und des Übersprechens stellt. Um dieses Problem zu lösen, analysierten Bartsch et al. (2023) die räumlich-zeitliche Dynamik der neuromagnetischen Aktivität im menschlichen visuellen Cortex als Funktion der Größe und Anzahl der Fokusverschiebungen bei einer visuellen Suche. Man verwendete dabei verschiedene Versionen einer visuellen Suchaufgabe, die es ermöglichen, den Grad der für die Zielidentifikation erforderlichen Aufmerksamkeitsverlagerung zu kontrollieren. Man stellte dabei fest, dass große Verschiebungen Aktivitätsmodulationen auslösen, die von der höchsten über die mittlere bis zur niedrigsten hierarchischen Ebene reichen, wobei kleinere Verschiebungen bewirken, dass diese Modulationen auf niedrigeren Ebenen in der Hierarchie beginnen, während aufeinanderfolgende Verschiebungen zu wiederholten Rückwärtsschritten in der Hierarchie führen. Dabei laufen diese Prozesse top-down, also von höheren zu tieferen Strukturebenen des visuellen Cortex, innerhalb von wenigen zehntel Millisekunden ab. Man kann daraus schließen, dass verdeckte Fokusverschiebungen durch einen cortikalen Grob-zu-Fein-Prozess entstehen, der von retinotopischen Bereichen mit größeren zu Bereichen mit kleineren rezeptiven Feldern führt. Dieser Prozess lokalisiert das Ziel und erhöht die räumliche Auflösung der Auswahl, wodurch mögliche Probleme der cortikalen Kodierung gelöst werden. Offenbar spielen sensorische Hirnbereiche eine weitaus komplexere Rolle bei intelligentem Verhalten spielt, als bisher angenommen worden war, sodass der menschliche visuelle Cortex gar keine strikt aufsteigende Verarbeitungsstrecke darstellt, wie man bisher glaubte.

    Literatur

    Bartsch, Mandy V., Merkel, Christian, Strumpf, Hendrik, Schoenfeld, Mircea A., Tsotsos, John K. & Hopf, Jens-Max (2023). A cortical zoom-in operation underlies covert shifts of visual spatial attention. Science Advances, 9, doi:10.1126/sciadv.ade7996.
    Fademrecht, L., Bülthoff, I. & de la Rosa, S. (2016). Action recognition in the visual periphery, Journal of Vision, DOI:10.1167/16.3.33.
    Hafed, Ziad M. &  Chen, Chih-Yang (2016). Sharper, Stronger, Faster Upper Visual Field Representation in Primate Superior Colliculus. Current Biology.
    Mure, Ludovic S., Vinberg, Frans, Hanneken, Anne & Panda, Satchidananda (2019). Functional diversity of human intrinsically photosensitive retinal ganglion cells. Science, 366, 1251-1255.
    Schoenfeld, Mircea A.,  Hopf, Jens-Max,  Merkel, Christian, Heinze, Hans-Jochen & Hillyard, Steven A. (2014).  Object-based attention involves the sequential activation of feature-specific cortical modules. Nature Neuroscience, doi:10.1038/nn.3656.
    Stangl, W. (2020). Schauen ist nicht gleich Sehen. Werner Stangls Arbeitsblätter-News.
    WWW: https://arbeitsblaetter-news.stangl-taller.at/schauen-ist-nicht-gleich-sehen/ (2020-08-02).
    Stangl, W. (2023, 1. April). Wie verdeckte Aufmerksamkeit funktioniert – Psychologie-News.

    Wie verdeckte Aufmerksamkeit funktioniert


    Valsecchi, M. & Gegenfurtner, K. R. (2015). Dynamic Re-calibration of Perceived Size in Fovea and Periphery through Predictable Size Changes. Current Biology, DOI: 10.1016/j.cub.2015.10.067.
    Yildizoglu, T., Riegler, C., Fitzgerald, J. E. & Portugues, R. (2020). A neural representation of naturalistic motion-guided behavior in the zebrafish brain. Current Biology, doi:10.1016/j.cub.2020.04.043.


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    Inhaltsverzechnis