Reinforcement learning

Reinforcement learning bzw. bestärkendes oder verstärkendes Lernen ist ein Oberbegriff für eine Reihe von Methoden des maschinellen Lernens, bei denen ein System, etwa ein Roboter, den Nutzen von Aktionsabfolgen bestimmt. Zu diesem Zweck benutzt man die Theorie der Markow-Entscheidungsprobleme. Heise online berichtet am 21. Februar 2016, dass künstliche Intelligenz dabei auch moralisches Handeln lernen soll, d. h., man will Robotern moralisches Handeln beibringen. Roboter sollen dabei aus alltäglichen Geschichten lernen, wie sie ihre Ziele mit angemessenen Mitteln erreichen. Diese Form des Lernens hat den Vorteil, dass in solchen Geschichten vor allem jene Strategien belohnt werden, die langfristig den größten Erfolg versprechen. Solche Geschichten könnten etwa davon handeln, für einen kranken Menschen Medizin in einer Apotheke zu besorgen, wobei das System nun mehrere Möglichkeiten, etwa das Erwünschte zu stehlen oder Geld am Automaten zu holen, sich in der Apotheke höflich anzustellen und das Medikament legal zu erwerben. Das eingebaute Belohnungssystem honoriert nur Handlungen, die herrschenden Konventionen entsprechen. Prämisse ist dabei dass  in den Geschichten und Erzählungen einer Gesellschaft das Regelwerk für einen menschlichen Umgang miteinander enthalten ist, aus denen man lernen kann, sich in unterschiedlichen Situationen wie ein menschliches Wesen zu verhalten.

Siehe dazu die Geschichten zu moralischen Dilemmata.

Literatur
Sutton, R. & Barto, A. (1998). Reinforcement Learning: An Introduction. Cambridge, MA; MIT Press.





Falls Sie in diesem Beitrag nicht fündig geworden sind, können Sie mit der folgenden Suche weiter recherchieren:


Das Lexikon in Ihren Netzwerken empfehlen:

You must be logged in to post a comment.

Diese Seiten sind Bestandteil der Domain www.stangl.eu

© Werner Stangl Linz 2017