Zum Inhalt springen

Eye-Tracking

    Unter Eye-Tracking bzw. Blickverlaufsmessung oder Okulographie versteht man das Aufzeichnen der hauptsächlich aus Fixationen (Punkte, die man genau betrachtet) und Sakkaden (schnellen Augenbewegungen) bestehenden Blickbewegungen einer Person. Eye-Tracking ermöglicht, das Sehen eines Probanden zu analysieren. Das Eye-Tracking wird als wissenschaftliche Methode u. a. in den Neurowissenschaften, der Wahrnehmungs-, Kognitions- und Werbepsychologie, bei Usability-Tests, im Produktdesign und der Leseforschung eingesetzt. Es wird auch bei der Untersuchung von Tieren, insbesondere im Zusammenhang mit der Erforschung ihrer kognitiven Fähigkeiten, angewendet.

    Eye-Tracking wird auch in der entwicklungspsychologischen Forschung eingesetzt und ermöglicht den ForscherInnen, zielgerichtete Handlungen von Säuglingen noch vor der Entwicklung von Feinmotorik und Sprache zu untersuchen. Mit Eye-Tracking kann die kindliche Entwicklung schon wesentlich früher untersucht werden, da sich die Feinmotorik der Arme und Beine erst im Alter von acht bis zehn Monaten soweit entwickelt, dass Kleinkinder gezielte Bewegungen ausführen können.
    Siehe dazu das Anwendungsbeispiel unten!

    Bei der Webseitenentwicklung ist Eye-Tracking eine Methode zur Messung und Verbesserung der Usability bzw. Nutzerfreundlichkeit. Der Kopf ruht dabei auf einer Kinnstütze, die Probandin bzw. der Proband blickt auf einen Bildschirm, eine auf sie bzw. ihn gerichtete Kamera zeichnet die Augenbewegungen auf. Durch eine im oder vor dem Monitor platzierte Kamera ist es daher während einer Eye-Tracking-Sitzung möglich, sämtliche Daten wie Augenbewegungen (Fixationen, Sakkaden, Blickverläufe), aber auch Mausbewegungen und Klicks zu erfassen. Dadurch lassen sich das Suchverhalten und die Aufmerksamkeitsdauer eines Probanden bei der Nutzung einer Webseite ermitteln und so objektivere Rückschlüsse über weitgehend unbewusste Wahrnehmungs-, Aufmerksamkeits- und Informationsverarbeitungsprozesse erhalten. Kombiniert mit Beobachtungs- und Befragungsdaten unterstützen solche Blickverlaufsmessungen die Interpretation des Nutzerverhaltens und liefern wertvolle Hinweise zur inhaltlichen und gestalterischen Optimierung von Internetanwendungen.

    eyetracking

    Beispie: Die Fixationen von 30 Menschen auf einer Facebook-Seite.

    Um auszuwerten, ob die psychologischen Maßnahmen wirklich funktioniert haben, wird von Marktforschungsinstituten nicht nur mittels Eye-Tracking ermittelt, wie sich Kunden auf den Webseiten des Shops verhalten, sondern auch online kann ein Onlineshop-Betreiber herausfinden, wie die Kunden agieren, und zwar über das Mousetracking, bei dem alle Mausbewegungen und Klicks dokumentiert werden.

    Auch die psychologische Grundlagenforschung nutzt Eyetracking-Systeme, um die menschliche Wahrnehmung besser zu verstehen, wobei vor allem auch untersucht wird, welche Rolle das Gedächtnis beim Suchen spielt. Jeden Tag suchen Menschen zwischen einer Vielzahl von Objekten ein ganz bestimmtes heraus, etwa den richtigen Schlüssel an einem Schlüsselbund oder auch ein Gesicht in einer Menschenmenge. Viele Objekte ähneln einander auf den ersten Blick, daher muss man meist eines nach dem anderen überprüfen, um das richtige zu finden. Wie diese visuelle Suche funktioniert und welche Rolle das Gedächtnis dabei spielt, untersuchen Psychologen der Universität Graz (Anja Ischebeck & Christof Körner) nun in einem Forschungsprojekt, wobei vor allem untersucht wird, welche Aufmerksamkeits- und Gedächtnisprozesse bei der visuellen Suche eine Rolle spielen. Einerseits weiß man, dass die visuelle Suche ein so hoch automatisierter Prozess ist, dass er kein Gedächtnis braucht, doch vermutet man nach Vortests, dass auch beim Finden von Objekten Gedächtnisprozesse wirksam sind. In diesen wurden Studenten gebeten, in Kreisen den Buchstaben T zu finden, der ein-, zwei- oder auch keinmal vorkommen konnte. Als Ablenkung dienten viele L. Kommt das T nun einmal vor, muss ich mir dessen Position merken, um ein zweites nicht mit ihm zu verwechseln, wobei es zu einer Aktivierung des Gehirns kam.

    Anwendungsbeispiel: Emotionen bei Säuglingen

    Palama, Malsert & Gentaz (2018) haben untersucht, ob die Babys Emotionen als solche erkennen oder ob sie nur die äußerlichen Merkmale der Emotionen unterscheiden. Die ForscherInnen untersuchten dafür Babys im Alter von sechs Monaten, wobei die Säuglinge in spezielle Kindersitze gesetzt wurden, damit ihnen Stimmen vorgespielt und Bilder gezeigt werden konnten. In der ersten Phase war der Bildschirm noch schwarz und die Babys hörten lediglich während zwanzig Sekunden eine Stimme, die entweder neutral, freudig erregt oder wütend war. Anschliessend wurde den Kindern zehn Sekunden lang ein Bild mit zwei Gesichtern angezeigt, von denen eines lachend und das andere wütend war. Während des Versuchs wurden die Augenbewegungen beobachtet, um zu messen, wie lange die Kinder die beiden Gesichter betrachteten und auf welche Gesichtsregionen sie besonders achteten. Es zeigte sich, dass die untersuchten Babys dabei weder das eine noch das andere Gesicht bevorzugten, nachdem sie eine neutrale oder wütende Stimme gehört hatten, nur wenn sie zuvor eine freudige Stimme gehört hatten, schauten die Kinder länger auf das wütende und nicht zur freundlichen Stimme passende Gesicht und insbesondere auf dessen Mund. Die Babys erkennen offenbar die Emotion unabhängig davon, ob diese durch die Stimme oder durch das Gesicht gezeigt wird, sodass sie die emotionale Information Freude vom Hören aufs Sehen übertragen können. Dass dieser Automatismus nur bei Freude und nicht bei Wut wirksam ist, führt man darauf zurück, dass Kinder in diesem Alter mit freudigen Emotionen vertrauter als mit Wut sind.

    Zusammen mit weiteren Geräten kann ein Eye-Tracker auch auf Fragestellungen innerhalb der klinischen Psychologie in den Bereichen Angst- und Suchtforschung eingesetzt werden, denn Menschen, die Angst vor Spinnen haben, erkennen auf einem Bild deutlich schneller eine Spinne als andere, oder wenn jemand unter Depressionen leidet, sieht er eher negative Dinge auf einem dargebotenen Bild.

    Bildquelle: K2_UX / flickr.com, Lizenz: CC-BY-SA

    Literatur

    Palama, A., Malsert, J. & Gentaz, E. (2018). Are 6-month-old human infants able to transfer emotional information (happy or angry) from voices to faces? An eye-tracking study. Public Library of Science, 13, doi:10.1371/journal.pone.0194579.


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert