Zum Inhalt springen

Uncanny Valley

    Als Uncanny Valley oder Akzeptanzlücke bezeichnet man den hypothetischen und paradox erscheinenden psychologischen Effekt in der Akzeptanz künstlicher Figuren auf den Menschen, insbesondere von Robotern. Dabei lösen solche Maschinen bzw. Roboter, die Menschen in Verhalten und Aussehen zu stark ähneln,  Unbehagen aus. Die Quelle dieses Uncanny Valley-Phänomens liegt nach neuesten Forschungen im Gehirn, wobei zwei Regionen im mittleren präfrontalen Cortex (ventromedialer präfrontaler und dorsomedialer präfrontaler Cortex) und auch die Amygdala eine wesentliche Rolle für diesen Effekt spielen, letztere im Zusammenhang mit dernegativen emotionalen Bewertung der Handlungen von Roboter.

    Gerade in sozialen Tätigkeitsbereichen scheint es hilfreich, wenn die technischen Gehilfen ihren Erschaffern optisch ähneln, denn je menschlicher ein Roboter wirkt, desto eher werden ihn etwa Senioren als Ersatz für eine echte Pflegekraft akzeptieren. Die Sympathie für einen künstlichen Akteur steigt, je menschenähnlicher dieser wird, was allerdings nur bis zu einem gewissen Punkt funktioniert, denn sieht der Roboter zu menschlich aus, sinkt wieder die Akzeptanz bzw. solche Roboter wirken häufig sogar unheimlich.

    Die Robotiker, die sich mit der psychologischen Seite der Mensch-Maschine-Interaktion beschäftigen, sprechen gerne vom Uncanny Valley, was ja nur beim humanoiden Roboter auftritt.

    Ulrike Thomas, der Leiterin der Professur für Robotik und Mensch-Technik-Interaktion an der TU Chemnitz hat das Konzept des Uncanny Valley immer ein wenig bezweifelt, sagt aber 2024 in einem Interview: „Mittlerweile habe ich mich überzeugen lassen, dass es sicher ein Uncanny Valley gibt. Aber wo dieses Valley liegt, sind wir uns nicht immer einig. Ich denke, es liegt da, wo wir nicht mehr unterscheiden können zwischen Mensch und Roboter. Dann wenn ich überrascht bin, wenn man mir sagt, dass war jetzt ein Roboter und kein Mensch. Da liegt zumindest mein gefühltes Uncanny Valley. Wobei das Uncanny Valley ja besagt, dass es weniger irritierend sei für Menschen, Roboter zu akzeptieren, die ihnen wieder sehr ähnlich werden. Vielleicht ist das auch sehr individuell. Wenn wir die Maschine noch erkennen, dann sind wir meiner Meinung nach noch nicht in diesem Uncanny Valley und wo die Maschine uns zu ähnlich wird, da landen wir irgendwann in diesem Uncanny Valley. Aus meiner Intuition heraus landen wir in einem Uncanny Valley, wenn wir einen Roboter haben, den wir nicht mehr von einem Menschen unterscheiden können. Wenn mir auf der Straße ein Roboter begegnet, der so menschlich ist, dass ich ihn nicht mehr als Roboter wahrnehme und daher nicht von einem Menschen unterscheiden kann, dann sind wir definitiv im Uncanny Valley. Ich glaube, das wird keine Akzeptanz finden. Wobei die Theorie des Uncanny Valley besagt, dass die Akzeptanz ab einer bestimmten Ähnlichkeit wieder steigt.“

    Um zukünftig humanoide Roboter tatsächlich in den Alltag des Nutzer einzubinden, bedarf es bei der Entwicklung dieser Roboter auch ein Wissen darum, welchen Effekt der Anthropomorphismus von Robotern auf den Nutzer hat. Mashiro Mori (1970/2012 betonte, dass Anthropomorphismus bei Maschinen auch negative Auswirkungen haben kann, wobei er den Effekt des Uncanny Valley beschrieb, der besagt, dass mit wachsender Menschenähnlichkeit die Akzeptanz und das Vertrauen des Nutzers in einen Roboter ansteigen, dass aber eine zu hohe Menschenähnlichkeit bei Nutzern Angst oder Befremden hervorrufen.

    Mustafa et al. (2017) haben eine Methode entwickelt, mit der vorhergesagt werden kann, ob ein virtueller Charakter als unangenehm empfunden wird. Dabei werden die Grenzen des Uncanny Valley ausgelotet, um hochrealistische Charaktere für die virtuelle Welt der Zukunft zu entwickeln, die als angenehm empfunden werden. Diese Entwicklung hochrealistischer virtueller Charaktere gilt als eine der größten Herausforderungen für Grafikdesigner, doch hat die Entwicklung seine Grenze in der Lücke, die beim Zuschauer oder Benutzer beim Betrachten einer virtuellen und eines realen Charakters entsteht. Nun hat man erstmals mit EEG-Messungen diesen Uncanny Valley-Effekt nachgewiesen, wobei einigen Filmen und Computerspielen der Uncanny Valley-Effekt bereits zum Verhängnis geworden ist, sodass aufwändige Produktionen vom Publikum nicht angenommen und dadurch zum Misserfolg wurden. Diesen Effekt zu verstehen, und seine Grenzen zu kennen ist daher auch für Film- und Spieleproduzenten eine große Hilfe, um hochrealistische Figuren in der virtuellen Realität zu kreieren. Nun hat man eine Methode entwickelt, mit der die Reaktion auf virtuelle Charaktere vorausgesagt werden kann, wobei eine selbstlernende Software dafür genutzt wird, um mit EEG-Messergebnissen eine Aussage über die jeweilige Figur zu treffen.

    Wenn Roboter ihrem menschlichen Gegenüber sehr ähnlich sehen, führt dies also bei Menschen eher zu unguten Gefühlen, doch besser läuft es, wenn Roboter menschliche Emotionen über ihre Sensoren erkennen können und angemessen auf sie reagieren, etwa durch ein fröhliches Tamagotchi-Piepsen. Eine neue Studie zeigte nun, dass Menschen mehr Empathie für Roboter empfinden, wenn diese von ihren privaten Gefühlen und Gedanken berichten. Probanden verbrachten in einer Studie bei einer virtuellen Kaffeepause diese Zeit abwechselnd mit einem menschenähnlichen Avatar und einem anthropomorphen Roboter auf dem Bildschirm. Dabei zeigte die Auswertung standardisierter Fragebögen nach dem Experiment, dass die Probanden mehr Empathie für die Roboter aufbrachten, wenn diese über ihre Probleme am Arbeitsplatz referierten, etwa: «Ich bin dankbar, mit dir zu reden, schliesslich gibt es auch ein paar Leute hier, die mich nicht akzeptieren.» Small Talk dagegen verfing nicht, denn wenn die künstlichen Kollegen bloss über das schöne Wetter redeten, hatte das kaum einen sympathiesteigernden Effekt.

    Eine neuere Studie der Hochschule Coburg untersuchte, welche Rolle die Vermenschlichung bei kooperativen Handbewegungen zwischen Mensch und Roboter spielt. Menschen neigen dazu, ein menschliches oder menschenähnliches Gegenüber zu imitieren, was auf die Aktivierung von Spiegelneuronen zurückzuführen ist, die beim Lernen durch Imitation eine wichtige Rolle spielen. Dies führt zu Bewegungsablenkungen bei der gemeinsamen Aufgabenbewältigung von Mensch und Roboter, so dass der Mensch aktiv gegen diese Ablenkungen arbeiten muss, was zu zusätzlichen Belastungen führt, wie in der Studie mit einem Roboterarm in menschenähnlicher Schulteraufhängung im Vergleich zur Tischaufhängung gezeigt wurde. Menschenähnlichkeit ist also nicht immer positiv zu bewerten, und der Grad der Menschenähnlichkeit muss im praktischen Einsatz von Robotern stets abgewogen werden, um eine Balance zwischen Intuitivität und Belastungsarmut zu finden.

    Siehe dazu auch Media Equation.

    Weitere Informationen zum Thema finden sich auch im Roboter-Lexikon und den Texten zur sozialen Robotik.

    Literatur

    Mustafa, Maryam, Guthe, Stefan, Tauscher, Jan-Philipp, Goesele, Michael & Magnor, Marcus (2017). How Human Am I? {EEG}-based Evaluation of Animated Virtual Characters. Proc. ACM Human Factors in Computing Systems (CHI), 5098-5108.
    Rosenthal-von der Pütten, Astrid M., Krämer, Nicole C., Maderwald, Stefan, Brand, Matthias & Grabenhorst, Fabian (2019). Neural Mechanisms for Accepting and Rejecting Artificial Social Partners in the Uncanny Valley. The Journal of Neuroscience, doi:10.1523/JNEUROSCI.2956-18.2019.
    https://www.tagesanzeiger.ch/wie-roboter-sympathisch-werden-412159655059 (23-05-24)
    Stangl, B. (2023, 24. Mai). Wann Roboter sympathisch sind …. Soziale Robotik.
    https://sozialerobotik.stangl.wien/wann-roboter-sympathisch-sind/
    Stangl, B. (2023, 26. September). Kooperation Mensch mit Roboter. Soziale Robotik.
    https://sozialerobotik.stangl.wien/kooperation-mensch-mit-roboter/
    https://www.l-iz.de/bildung/leipzig-bildet/2024/10/ein-trend-der-zeit-entwicklung-robotik-frau-prof-thomas-603917 (24-10-04)

    Bildquelle

    https://graphics.tu-bs.de/publications/mustafa2017how (17-12-12)


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::