moralisches Dilemma

Moralische Dilemmata dienen in der Theorie Kohlbergs der Erfassung moralischer Kognitionen, wobei in den jeweils beschriebenen Dilemmasituationen mindestens zwei Bedürfnisse oder Verpflichtungen miteinander in Konkurrenz stehen, die für das moralische Urteil einer Person von Relevanz sein können. In der Sozialpsychologie werden Dilemmata in Form von experimentellen Nichtnullsummenspielen – wie etwa dem Allmende-Klemme-Spiel – seit Mitte des vorigen Jahrhunderts zur Untersuchung von optimalen Kooperationsstrategien verwendet.

Siehe dazu im Detail Moralische Entwicklung – Dilemmata.

Moral Machine

Isaac Asimovs erster Grundsatz der Robotergesetze besagt, dass ein Roboter wie etwa auch ein selbstfahrendes Auto kein menschliches Wesen verletzen oder durch Untätigkeit zulassen darf, dass einem menschlichen Wesen Schaden zugefügt wird. Ist das Resultat einer seiner Entscheidungen in jedem Fall tödlich, so sieht sich auch die Maschine vor ein ethisches Dilemma gestellt, es wird zu einer Moral Machine. Fährt etwa ein solches Roboterauto auf einen Zebrastreifen zu und plötzlich versagen die Bremsen, muss letztlich das Auto entscheiden, wer sterben soll, die Insassen oder die Fußgänger.





Falls Sie in diesem Beitrag nicht fündig geworden sind, können Sie mit der folgenden Suche weiter recherchieren:


Das Lexikon in Ihren Netzwerken empfehlen:

You must be logged in to post a comment.

Diese Seiten sind Bestandteil der Domain www.stangl.eu

© Werner Stangl Linz 2017