Parsing oder auch Satzanalyse bezeichnet ursprünglich in der Computerlinguistik die Analyse bzw. Strukturbeschreibung von Sätzen mit Hilfe spezieller Computerprogramme. Parsing bezeichnet in der Psycholinguistik aber auch jenen Prozess des menschlichen Gehirns, mit dem es versucht, sprachliche Strukturen eines Gespräches oder eines Textes durch Hypothesenbildung im Voraus zu erkennen. Menschen denken beim Hören oder auch Lesen von Gesprochenen oder Geschriebenen nämlich immer ein Stück voraus bzw. stellen unbewusst Hypothesen über das Folgende auf, wobei diese Fähigkeit das Sprachverständnis erst ermöglicht bzw. zumindest erleichtert, wenn die Hypothesen zutreffen. Je komplizierter Satzkonstruktionen werden, desto eher läuft das Gehirn Gefahr, eine falsche Annahme über die Fortsetzung oder den Ausgang eines Satzes lange Zeit für richtig zu halten, bzw. die Leserin oder der Leser bleibt lange im Ungewissen, wie es in einem Satz weitergeht. Vor allem bei komplexen wissenschaftlichen Texten oder Vorträgen wird dem Zuhörer oder dem Leser dieses „Vorauslesen“ bzw. „Voraushören“ sehr schwer gemacht. Auch Textverarbeitungsprogramme und Spracherkennungsprogramme arbeiten mit Parsing-Algorithmen, etwa wenn bei der Eingabe eines Wortes am Computer Vorschläge zur Fortsetzung gemacht werden, indem in der Bibliothek bisheriger Wörter die wahrscheinlichste Fortsetzung vorgeschlagen wird.

Untersuchungen in den USA haben übrigens gezeigt, dass es bei der Bedeutungsverarbeitung von Wörtern und Sätzen für das Gehirn kaum einen Unterschied macht, ob die Texte gelesen oder gehört werden. ProbandInnen hatten zuerst Texte leise gelesen und genau diese Texte dann noch einmal zu hören bekommen, wobei man während des Lesens und Hörens mit Hilfe der funktionellen Magnetresonanztomographie die Gehirnaktivitäten erfasste. Zuvor war die Bedeutung von jedem Wort mit Hilfe der natürlichen Sprachverarbeitung (Natural Language Processing, einem Teilgebietes der AI) kodiert worden, sodass die Bedeutung des gelesenen bzw. gehörten Wortes im Gehirn verortet werden konnte. Mit Hilfe des maschinellen Lernens clusterte man danach die so modellierten Gehirndaten nach Modalitäten wie visuell, taktil, numerisch, lokal, gewalttätig, emotional, temporal etc. So aktivieren etwa Wörter des Bedeutungsclusters sozial (Vater, Mutter, Sohn, Tochter, Kind, Oma, Opa etc.) gehören, unter jenes Gehirnareal, in dem sich die temporalen und parietalen Lappen treffen, oder Wörter des Bedeutungsclusters Körperteil (Lippen, Arm, Fuß, Nacken, Schädel, Bauch, Glied usw.) gehören, überwiegend das Gehirnareal im visuellen Cortex. Als man dann die Daten der Gehirnaktivität beim Lesen und mit denen beim Hören verglich, zeigte sich, dass es für die Bedeutungsverarbeitung der Wörter und Sätze im Gehirn keinen Unterschied macht, ob sie gelesen oder gehört wurden, d. h., die Bedeutungsverarbeitung findet bei beiden Fähigkeiten in den gleichen Gehirnregionen statt. So konnte man eine Landkarte von Wort- und Satzbedeutungen auf dem menschlichen Cortex anfertigen, um damit die Gehirnaktivierungen in bestimmten Gehirnregionen, die die Bedeutung von Wörtern verarbeiten, mit Hilfe von Modellen vorherzusagen zu können.

Literatur

Stangl, W. (2020). Informationsaufnahme und -verarbeitung. [werner stangl]s arbeitsblätter.
WWW: https://arbeitsblaetter.stangl-taller.at/GEDAECHTNIS/Informationsverarbeitung.shtml (20-06-25).


Weitere Seiten zum Thema

Schreibe einen Kommentar