Als Raumwahrnehmung bezeichnet man die kinästhetische, akustische und visuelle Erfahrung bzw. Konstruktion von umgebenden Raum. Auf Grund der Raumwahrnehmung erlebt sich der Mensch ganz selbstverständlich verortet und handelnd in einem einheitlichen und stabilen Raum. Ähnlich einer Kamera erzeugt das Auge ein zweidimensionales Abbild der Umwelt auf der Netzhaut, wobei das Sehen von räumlicher Tiefe erst dadurch zustande kommt, dass zum einen die Entfernung eines Objektes wahrgenommen wird, zum anderen über die Kenntnis der Welt und der darin vorkommenden Objekte, woraus erst eine Interpretation der räumlichen Tiefe erfolgt. Die retinale Projektion des umgebenden physikalischen Raumes steht im Zusammenhang mit den propriozeptiven Informationen und kognitiven Faktoren (Hinweisreize und deren Interpretation) und verleihen dem erlebten Raum ein hohes Maß an Stabilität und Struktur, der aber nicht eine bloße Rekonstruktion des physikalischen Raumes darstellt, was etwa in Form von zahlreichen Wahrnehmungstäuschungen sichtbar wird.
Einerseits nutzt das Gehirn mehrere Quellen (Tiefenkriterien), um Aufschluss über die Anordnung der Objekte im dreidimensionalen Raum zu erhalten, andererseits funktionieren einige auch monokular, als mit nur einem Auge, die etwa in der Malerei benutzt werden.
Neuere Untersuchungen zeigen übrigens, dass die Kultur, in der man aufgewachsen ist, wesentlichen Einfluss auf die räumliche Wahrnehmung hat. Bei einer psychophysischen Aufgabe, bei Probanden beurteilen mussten, ob ein rechteckiger Raum größer oder kleiner als ein quadratischer Referenzraum war, variierte man systematisch die Rechtwinkeligkeit, also das Tiefen- zum Breiten-Seitenverhältnis, und den Blickpunkt, die Mitte der kurzen Wand gegenüber der langen Wand, von dem der Raum betrachtet wurde. Bei Ostasiaten (Südkoreanern) lösten die Rechteckigkeit des Raums und der Blickpunkt deutlich weniger Vorannahmen aus als bei Europäern (Deutsche). Diese Ergebnisse bestätigen, dass allgemeine kognitive Verarbeitungsstrategien in ostasiatischen Gesellschaften kontextabhängiger sind als in westlichen. Offenbar sind Deutsche bei der Raumgrößenwahrnehmung aufgrund des übermäßigen Gebrauchs der Tiefendimension empfindlicher für räumliche Vorannahmen und berücksichtigen daher nicht alle Dimensionen des Raumes.
Verschiedene Landkarten im Kopf werden wie ein Puzzle zusammengesetzt
In einer Studie untersuchten Strickrodt, Bülthoff & Meilinger (2018) verschiedene Ebenen der Integration von Lernobjektpositionen im navigierbaren Raum innerhalb des Gedächtnisses (lokal, regional, global). Die Probanden und Probandinnen lernten eine virtuelle Umgebung bestehend aus acht aneinandergereihten Korridoren, wobei eine Hälfte dieser Korridore zur blauen Region gehörte, die Tiere als Landmarken enthielten, und die andere Hälfte zur roten Region, die Werkzeuge als Landmarken enthielten. Die Umgebung wurde dabei über eine Virtual Reality Brille präsentiert, während sie sich in einer großen Halle frei bewegen konnten. Nach intensivem Lernen wurden die Probanden und Probandinnen an verschiedene Orte innerhalb der Umgebung teleportiert, von wo aus sie aus dem Gedächtnis zu den zuvor gelernten Landmarken in gerader Linie zeigen mussten.
Die Ergebnisse der Studie zeigen, dass die Probanden und Probandinnen nicht einfach Informationen aus einer einzigen kognitiven Karte ausgelesen haben, d. h., sondern die Ergebnisse legen den Schluss nahe, dass das Gedächtnis vom navigierbaren Raum verschiedene Ebenen hat, d. h., die Probanden und Probandinnen hatten mit der Zeit scheinbar lokale, regionale und globale kognitive Karten aufgebaut. Offenbar nutzen sie neben kognitiven Minikarten, die nur auf einen einzigen Korridor beschränkt waren, auch Karten, die eine Region mehrerer Korridore umfassten, und schließlich eine kognitive Karte, die die gesamte Umgebung abdeckt. Diese Auswahl an räumlichen Gedächtnisinhalten wird daher nicht ständig vollumfänglich genutzt, sondern die Probanden scheinen je nach aktuellem Standort und gewünschtem Ziel nur den relevante Gedächtnisinhalt ausgewählt zu haben. Man vermutet auf Grund dieser Ergebnisse, dass das menschliche Gedächtnis für den navigierbaren Raum hierarchisch geordnete Landkarten anlegt. Der Prozess der Richtungsschätzung war in allen Fällen an die Lernreihenfolge gebunden, also die virtuellen Lauferfahrung von Korridor zu Korridor. Vermutlich entwickeln Menschen für den Raum daher keine kartenartigen, mentalen Bilder der gesamten Umgebung aus der Vogelperspektive, sondern diese setzen sich als einzelne Erinnerungseinheiten in Form verschiedener Karten wie Teile eines Puzzles zusammen.
Wahrnehmung und Motorik arbeiten beim Erstellen von Raumkarten zusammen
Im menschlichen Gehirn wird der Ort von Objekten durch räumliche Karten vermittelt, wobei diese Karten, ähnlich wie auf einem Foto, die Umwelt ab bilden, wobei zur Bestimmung der genauen Position eines Objektes und die reale Distanz zu ihm zu erkennen, ein Maßstab erforderlich ust. Eine mögliche Erklärung, wie das Gehirn den Maßstab festlegt, beruht auf der Bewegung relativ zum Objekt, was etwa durch die Änderung der Blickrichtung geschehen kann. Je weiter sich ein Objekt in der Peripherie befindet, desto größer ist die durch die Blickbewegung erfasste Winkeländerung. Wenn der Betrachter durch die Karte im Gehirn angeleitet, den Blick auf ein Objekt richtet, es aber nicht genau trifft, weiß er, dass der Maßstab ungenau war, wobei der Fehlerwinkel, um den der Blick das Objekt nicht erfasst, dem Gehirn angibt, um welchen Betrag der Maßstab in den Raumkarten zu korrigieren ist. Cont & Zimmermann (in press, 2020) setzten eine virtuelle Umgebung ein und maßen mittels eines Eyetrackers, wie sich die Blickrichtung von Probanden verändert. Dabei wurde der Wahrnehmungsprozess bewusst gestört, denn während der Blickbewegung verschob man das virtuelle Objekt, ein Prozess, den ein Betrachter nicht bewusst wahrnehmen kann. Nach der Blickrichtungsänderung merkte aber dann das Gehirn doch, dass das Objekt nicht mehr dort war, wo es laut seiner ersten Karte zu erwarten war. Als Konsequenz aus diesem Widerspruch zur eigenen Vorhersage korrigiert das Gehirn den internen Maßstab. Dadurch würde wieder einmal bestätigt, dass motorische Prozesse für die räumliche Wahrnehmung eine große Rolle spielen. Dieser Befund stellt offenbar die Intuition auf den Kopf, nach der man erst etwas wahrnimmt, um daraufhin zu handeln, sondern die Wahrnehmung benötigt schon die Motorik bzw. umgekehrt.
Damit das Gehirn Stabilität in die Wahrnehmung der Umwelt bringt, müssen Neuronen in sensorischen Systemen bestimmte Merkmale eines Reizes erfassen, doch während naturalistischer Stimulation werden jedoch mehrere Merkmale gleichzeitig neuronale Antworten wirksam, was dem Gehirn das Auslesen einzelner Merkmale erschwert. Das ist etwa der Fall, wenn Menschen sich in Bewegung befinden, in der das Gehirn ständig die Bewegung der Blickrichtung überwacht, um gegebenenfalls mit Bewegungen der Augen gegenzusteuern. Bei der Überwachung der Blickrichtung spielen etwa Neuronen im Sehsystem eine zentrale Rolle, die aktiv werden, wenn sich das Bild im Auge in eine bestimmte Richtung verschiebt, sodass ihre Signale als Auslöser gegensteuernder Augenbewegungen agieren können. Kühn & Gollisch (2019) haben jüngst solche Nervenzellen im Auge von Salamandern entdeckt und fanden heraus, dass die Zellen ihre Richtungspräferenz unter dieser Stimulation beibehalten, ihre Richtungscodierung jedoch aufgrund der gleichzeitigen Aktivierung durch Luminanzänderungen mehrdeutig wird. Diese Mehrdeutigkeiten können aufgelöst werden, indem man Populationen von richtungsselektiven Zellen mit unterschiedlichen Vorzugsrichtungen betrachtet, was zu einer synergistischen Bewegungsdekodierung führt, die mehr Informationen aus der Population liefert als die summierten Informationen der Einzelzellantworten. Um daher etwa Bewegungen von Helligkeitsänderungen zu unterscheiden, müssen die Nervenzellen im Verbund agieren, und leiten nicht nur Informationen zur wahrgenommenen Bewegung weiter, sondern liefern auch ein Korrektursignal an die Nachbarzellen, die dadurch jene Informationen erhalten, um Signale von Bewegungen und Helligkeitsänderungen getrennt zu verarbeiten. Also nicht die Signale einzelner Zellen zeigen an, in welche Richtung eine Bewegung stattgefunden hat, sondern dafür ist vielmehr die Differenz der Signale zweier Zellen entscheidend, d. h., dass Gruppen von Nervenzellen mehr Information über die beobachtete Bewegung übertragen, weil sie sich gegenseitig korrigieren. Daher ist auch schon auf dieser niederen Ebene der Informationsverarbeitung das Ganze mehr als die Summe seiner Teile. Diese Synergie zwischen Nervenzellen wird noch durch gleichzeitige, also synchrone Aktivität der Nervenzellen. erhöht, was zu einer genaueren Repräsentation der Bewegungsrichtung führt.
Die natürliche Ausrichtung des Blicks führt häufig zu einem Netzhautbild, das aufgrund der Okulartorsion relativ zum Raum gedreht ist, d. h., man nimmt trotz visueller Drehbewegung auf der Netzhaut weder diese Drehung noch eine sich bewegende Welt wahr. Diese Wahrnehmungsstabilität wird oft dem Phänomen des prädiktiven Remapping zugeschrieben. Am Wahrnehmungsphänomen der Raumstabilität sind aber mehrere Prozesse beteiligt. Zum einen wird das Sehen bei einer raschen Augenbewegung aktiv unterdrückt, d. h., man ist in dieser Zeit zwar nicht ganz blind, aber Prozesse im Gehirn führen dazu, dass manche Neuronen währende der Bewegung weniger aktiv sind, als wenn man einen Gegenstand in Ruhe betrachtet. Studien zeigen, dass Neuronen in bestimmten Gehirnarealen die Auswirkung von Sakkaden auf den Seheindruck gewissermaßen antizipieren. Das rezeptive Feld einzelner Nervenzellen reagiert immer nur auf einen kleinen Bereich des Gesichtsfelds und erst die Summe aller Neuronen deckt das ganze Gesichtsfeld ab. Aus Tierexperimenten (Morris & Krekelberg, 2019) weiß man, dass manche Zellen im Scheitellappen der Großhirnrinde ihr rezeptives Feld bereits vor Beginn einer Sakkade an ihren neuen Ort im Raum verlagern, d. h., sie können gewissermaßen in die Zukunft sehen und die Neuronen antworten schon kurz vor dem Blicksprung auf Reize an dem Ort, für den sie eigentlich erst später empfindlich sein sollten. Wahrscheinlich trägt dieser Prozess entscheidend zum Phänomen der Raumstabilität bei. Vermutlich verrechnet das Gehirn permanent die Position des Bildes auf der Netzhaut mit der Position der Augen im Kopf, sodass eine solche Codierung relativ stabil zur Lage des Kopfes oder des restlichen Körpers ist. Murdison et al. (2019) stellten ebenfalls fest, dass die Orientierungswahrnehmung weitgehend durch das rotierte Netzhautbild vorhergesagt wurde, und beobachteten ein präsakkadisches Remapping der Orientierungswahrnehmung, das mit der Aufrechterhaltung einer stabilen aber räumlich relativ ungenauen retinozentrischen Wahrnehmung während der gesamten Sakkade konsistent war. Diese Befunde deuten darauf hin, dass die nahtlose Wahrnehmungsstabilität auch von retinozentrischen Signalen abhängt, die bei jeder Sakkade prädiktiv in allen drei Okulardimensionen neu abgebildet werden.
Wie erzeugt das Gehirn die Raumstabilität?
Bei der sensorische Verarbeitung von Umweltreizen sieht die prädiktive Kodierung vor, dass eingehende Signale iterativ mit Top-down-Vorhersagen entlang eines hierarchischen Verarbeitungsschemas verglichen werden. Bei jedem Schritt werden also Fehlersignale, die sich aus den Unterschieden zwischen den tatsächlichen Eingaben und den Vorhersagen ergeben, weitergeleitet und durch die Aktualisierung interner Modelle immer wieder minimiert, um schließlich wegerklärt zu werden. So machen etwa die Augen bei der Fixation von Objekten pro Tag weit mehr als hunderttausend schnelle Blicksprünge, wobei das Gehirn bei einem Verweilen der Augen an einem Punkt bereits nach etwa hundert Millisekunden mit Vorhersagen beginnt.
Da die neuronalen Mechanismen, die solchen Berechnungen zugrunde liegen, und ihre Grenzen bei der Verarbeitungsgeschwindigkeit noch weitgehend unbekannt sind, haben Staadt et al. (2020) diese untersucht, indem Versuchspersonen kurz der Überlagerung von zwei orthogonal orientierten Gittern ausgesetzt wurden, gefolgt von der abrupten Entfernung einer Orientierung nach entweder 33 oder 200 Millisekunden, sodass dann nur eines der Gitter zu sehen war. Die Aufgabe bestand darin, anhand eines Testreizes zu berichten, welche Orientierung das zuletzt gesehene Gitter hatte. In den meisten Fällen berichteten die Probanden wie zu erwarten korrekt die zuletzt gezeigte Orientierung, doch in einigen Fällen berichteten die Probanden selten, aber hochsignifikant von einer illusorischen Wahrnehmung der arithmetischen Differenz zwischen der vorherigen und der aktuellen Orientierung. Diese Ergebnisse zeigen, dass das Sehsystem sowohl Informationen über vergangene, aktuelle, als auch über mögliche zukünftige Bildinhalte auf kurzen Zeitskalen bereithält, um rasch auf wechselnde Bildfolgen vorbereitet zu sein, wobei diese vorausschauende Strategie zugleich Stabilität und Flexibilität gewährleistet. Das gelegentliche Auftreten einer Vorhersagefehler-ähnlichen Scheinwahrnehmung könnte also die Flexibilität in den Phasen der Wahrnehmungsentscheidung aufdecken, wenn die Probanden mit hochdynamischen und mehrdeutigen visuellen Reizen umgehen müssen. Letztlich stützen diese Resultate jene Hypothese, dass Vorhersagefehler im Rahmen der Predictive-Coding-Theorin nicht nur bei höheren kognitiven Funktionen auftreten, also Prozessen, die mit bewussten Erwartungen verknüpft sind, sondern dass solche Vorhersagefehler auch bei schnellen, in Bruchteilen von Sekunden verlaufenden Dynamiken der optischen Wahrnehmung eine Rolle spielen.
Die Fähigkeit des menschlichen Gehirns, trotz ständiger Augenbewegungen eine stabile visuelle Wahrnehmung aufrechtzuerhalten, ist essenziell für Orientierung und kognitive Verarbeitung im Alltag. Dieses Phänomen, das als visuelle Stabilität bezeichnet wird, verhindert, dass wir bei jeder schnellen Blickbewegung Desorientierung oder Schwindel empfinden. Zwei aktuelle Studien liefern neue Erkenntnisse zu den neuronalen Prozessen hinter dieser stabilisierenden Leistung – und zeigen auf, wie diese Mechanismen bei Menschen mit autistischen Merkmalen verändert sein können .
Im Zentrum der Studien stand die Beobachtung, dass das Gehirn sich an die durch eigene Augenbewegungen verursachten Reize gewöhnt und diese zunehmend als irrelevant einstuft. Ähnlich wie das Ticken einer Uhr nach einer gewissen Zeit nicht mehr bewusst wahrgenommen wird, filtert das Gehirn auch visuelle Reize, die durch schnelle Augenbewegungen, sogenannte Sakkaden, entstehen. Dieser Mechanismus erzeugt also eine Form der sensorischen Gewöhnung: Sobald ein Bewegungsmuster vorhersehbar ist, erkennt es das Gehirn als bedeutungslos und blendet es aus. Wenn Menschen ihren Blick im Spiegel von einem zum anderen Auge bewegen, scheint sich die Pupille nicht kontinuierlich, sondern sprunghaft zu bewegen. Das liegt daran, dass das Gehirn die Unschärfe, die durch die Bewegung entsteht, unbewusst herausfiltert. Die Probanden der Studie führten Hunderte solcher Augenbewegungen aus, wodurch ihr sensomotorisches System lernte, die Bewegungssignale mit dem entsprechenden motorischen Kommando zu verknüpfen – ein Prozess, der zu einem selektiven Herausfiltern der selbstverursachten Bewegungseindrücke führt.
Doch dieser Mechanismus funktioniert nicht bei allen Menschen gleich gut, denn eine zweite Studie untersuchte 49 Personen mit unterschiedlich ausgeprägten autistischen Merkmalen. Die Ergebnisse zeigen, dass Menschen mit stärker ausgeprägten autistischen Zügen die visuellen Effekte ihrer eigenen Augenbewegungen weniger gut erkennen und generell eine geringere Sensitivität für Bewegung während dieser Sakkaden aufweisen. Es scheint also dass ihr Gehirn die motorischen Kommandos für Augenbewegungen nicht präzise mit dem übereinstimmt, was tatsächlich visuell wahrgenommen wird. Infolgedessen wird nicht nur die durch Eigenbewegung verursachte Unschärfe ausgeblendet, sondern ein weitaus breiteres Spektrum an Bewegungsreizen unterdrückt. Diese übermäßige sensorische Filterung könnte erklären, warum viele autistische Menschen unter einer sogenannten sensorischen Überlastung leiden. Indem das Gehirn potenziell relevante visuelle Hinweise nicht verarbeitet, entstehen im Alltag zusätzliche Herausforderungen, die mit erhöhtem Stress und Ermüdung einhergehen können. Wer etwa im Straßenverkehr beim Blick in den Seitenspiegel keine stabile visuelle Vorstellung hat, läuft Gefahr, wichtige Informationen zu übersehen. Wenn der zugrundeliegende Filterprozess im Gehirn besser verstanden wird, eröffnen sich möglicherweise neue Wege zur Linderung sensorischer Überforderungen bei autistischen Personen.
Die Fähigkeit zur visuellen Stabilität beruht also auf einer präzisen Abstimmung zwischen sensorischen Eindrücken und motorischen Kommandos, denn wird diese Abstimmung gestört hat dies tiefgreifende Auswirkungen auf die visuelle Wahrnehmung und den Umgang mit alltäglichen Reizen.
Raumwahrnehmung im Gehirn bei Blinden durch Echoortung
Die von Fledermäusen bekannte Echoortung macht sich der Mensch inzwischen für zahlreiche technische Anwendungen zunutze, vom Radargerät bis hin zum Hightech-Blindenstock mit Ultraschallsensoren (Klicksonar). Blinde Menschen, die sich via Echoortung in ihrer Umgebung orientieren, verarbeiten Geräusche ähnlich wie Sehende Licht, wobei eigentlich auf visuelle Reize spezialisierte Hirnbereiche die Echos räumlich zuordnen, indem sie eine Art neuronale Karte des reflektierten Schalls erstellen, sodass echoortende Blinde ziemlich genau bestimmen können, aus welcher Richtung ein Geräusch kommt. Norman & Thaler (2019) haben in einer Studie den primären visuellen Cortex untersucht, der bei sehenden Menschen in die Retina einfallende Lichtreize verarbeitet. Die Neuronen in diesem Bereich stellen dabei eine Art räumliche Karte unserer Umgebung dar, wobei einfallendes Licht von Punkten, die im Raum nebeneinander liegen, auch nebeneinanderliegende Punkte im Gehirn aktivieren. In dem Experiment spielte man Probanden (Sehende, echoortende und nicht im Klicksonar geschulte Blinde) Klicklaute vor, die von einem Gegenstand an jeweils unterschiedlichen Positionen im Raum reflektiert wurden. Die Teilnehmergruppe setzte sich dabei aus sehenden Menschen sowie echoortenden und nicht im Klicksonar geschulten Blinden zusammen. Dabei lösten die Echos bei echoortenden Blinden im Gehirn dieselben Aktivierungsmuster aus, wie sie bei sehenden Menschen durch visuelle Reize ausgelöst werden, sodass ihr visueller Cortex Geräusche ähnlich räumlich zu kartieren scheint wie er es Sehende mit Licht tun. Bei den sehenden und auch bei den nicht zum Klicksonar sich orientierenden blinden Probanden zeigte sich dieser Zusammenhang hingegen nicht, sodass Blindsein allein keineswegs ausreicht, damit sich der visuelle Cortex auf die Verarbeitung anderer Reize spezialisiert. Je stärker die Aktivierungsmuster im Gehirn der echoortenden Blinden der von Sehenden bekannten „neuronalen Karte“ glichen, desto besser konnten sie die Position des Gegenstands im Raum erkennen. Offenbar kann der visuelle Cortex räumliche Informationen nach ausreichendem Training auch dann nutzen, wenn sie nicht durch die Augen kommen.
Geruch und Orientierung
Innere Landkarten werden von Menschen jeweils mit Landmarken versehen, etwa auffälligen Gebäuden oder anderen Objekten und Anhaltspunkten, die der besseren Orientierung dienen. Studien haben bereits gezeigt, dass neben visuellen Objekten auch Geräusche, wie zum Beispiel Baustellenlärm oder Hundegebell, die Funktion von Landmarken übernehmen können. Hamburger & Knauff (2019) haben nun gezeigt, dass auch der Mensch in der Lage ist, sich nach olfaktorischen Gesichtspunkten durch seine Umwelt zu navigieren, dass also auch Gerüche solche Landmarken sein können. Die Studie zeigt auch nachdrücklich, dass die Bedeutung von Gerüchen für den Menschen bisher unterschätzt worden sei.
Literatur
Cont, S. & Zimmermann, E. (in press, 2020). The Motor Representation of Sensory Experience. Current Biology, doi:10.1016/j.cub.2020.11.032.
Hamburger, Kai & Knauff, Markus (2019). Odors Can Serve as Landmarks in Human Wayfinding. Cognitive Science, 43, doi:10.1111/cogs.12798.
Kühn, N. K. & Gollisch, T. (2019). Activity Correlations between Direction-Selective Retinal Ganglion Cells Synergistically Enhance Motion Decoding from Complex Visual Scenes. Neuron, doi:10.1016/j.neuron.2019.01.003.
Morris A. P. & Krekelberg B. (2019). A stable visual world in primate primary visual cortex. Current Biology, 29, 1471–1480.
Morris, A. P., Kubischik, M., Hoffmann, K.-P., Krekelberg, B. & Bremmer, F. (2012). Dynamics of eye-position signals in the dorsal visual system. Current Biology, 22, 173–179.
Murdison, T. Scott, Blohm, Gunnar & Bremmer, Frank (2019). Saccade-induced changes in ocular torsion reveal predictive orientation perception. Journal of Vision, 19, doi:10.1167/19.11.10.
Norman, Liam J. & Thaler, Lore (2019). Retinotopic-like maps of spatial sound in primary ‘visual’ cortex of blind human echolocators. Proceedings of the Royal Society B: Biological Sciences, 286, doi: 10.1098/rspb.2019.1910.
Pomè, A., & Zimmermann, E. (2025). Disrupted sensorimotor predictions in high autistic characteristics. Proceedings of the National Academy of Sciences, 122, doi:10.1073/pnas.2501624122
Pomè, A., Schlichting, N., Fritz, C., & Zimmermann, E. (2024). Prediction of sensorimotor contingencies generates saccadic omission. Current Biology, 34, 3215–3225.
Saulton, Aurelie, Bülthoff, Heinrich H., de la Rosa, Stephan & Dodds, Trevor J. (2017). Cultural differences in room size perception. PLoS ONE 12(4):e0176115.
Strickrodt, M., Bülthoff, H. H., & Meilinger, T. (2018). Memory for navigable space is flexible and not restricted to exclusive local or global memory units. Journal of Experimental Psychology: Learning, Memory, and Cognition, doi:10.1037/xlm0000624.
https://de.wikipedia.org/wiki/Raumwahrnehmung (15-03-30)
https://lexikon.stangl.eu/19092/asomatognosie/ (15-03-30)
https://www.psychologie.uni-heidelberg.de/ae/allg/lehre/wct/w/w6_raum/index.htm (16-11-21)
https://www.wissenschaft.de/gesundheit-medizin/wie-echoortung-das-gehirn-veraendert/ (19-10-05)