Deep Learning

Deep Learning bezeichnet spezielle Verfahren des maschinellen Lernens, die auf dem Erlernen einer Repräsentation von Daten in unterschiedlichen Abstraktionsschichten basieren, wobei solche tiefe Architekturen aus mehreren Schichten bestehen, die durch nichtlineare Operationen miteinander verbunden sind. Durch diese tiefe mehrschichtige Architektur kann, Schicht für Schicht, eine einfachere und abstraktere Darstellung der zugrunde liegenden Daten geschaffen werden. Vereinfacht gesagt, handelt es sich um einen Prozess, bei dem ein Computer sich selbst, durch Erfahrungen, Wissen aneignet. Dem Deep Learning liegt der Gedanke zugrunde, das menschliche Nervensystem nachzubilden und ähnlich wie ein menschliches Gehirn aus vorliegenden Daten zu lernen, wobei der Lernprozess dem von Kindern gleicht, die sich die Welt durch Versuch und Irrtum bzw. Abgleich der dabei gemachten Erfahrungen erschließen.

Zur Herstellung dieser Form einer künstlichen Intelligenz werden Methoden genutzt, die große Datenmengen analysieren können, wobei die Funktionsweise am Lernen im menschlichen Gehirn orientiert ist, indem auf Basis vorhandener Informationen das bisher Erlernte immer wieder mit neuen Inhalten verknüpft wird, d. h., dadurch weiter lernt. Daher ist die Maschine in der Lage, Prognosen oder Entscheidungen zu treffen und diese zu hinterfragen, wobei Entscheidungen bestätigt oder in einem neuen Anlauf geändert werden. Durch das kontinuierliches Hinterfragen der Entscheidungen erhalten die Informationsverknüpfungen bestimmte Gewichte, d. h., bestätigen sich Entscheidungen, erhöht sich deren Gewicht, werden sie revidiert, verringert es sich. Zwischen der Eingabeschicht und der Ausgabeschicht entstehen immer mehr Stufen an Zwischenschichten und Verknüpfungen, wobei über den eigentlichen Output die Anzahl der Zwischenschichten und deren Verknüpfung entscheidet. Im Unterschied zum rein maschinellen Lernen  greift der Mensch in die Analyse der Daten und den eigentlichen Entscheidungsprozess nicht ein, sondern sorgt lediglich dafür, dass die Informationen für das Lernen bereitstehen und die Prozesse dokumentiert werden. Auch lässt sich im Nachhinein nicht mehr vollständig zurückverfolgen, auf Basis welcher genauen Muster eine Maschine eine bestimmte Entscheidung getroffen hat.

Die erste Generation der Forschung zur künstlichen Intelligenz zeigte, wie unerhört komplex es ist, das menschliche Alltagswissen abzubilden, insbesondere bei einfachen Wahrnehmungsaufgaben: Was macht ein menschliches Gesicht aus? Wie unterscheidet es sich von einer Maske oder dem Gesicht eines Affen? Hunderte von Entwicklern und Studenten verbrachten Jahrzehnte damit, per Hand all die Regeln einzutippen, die Computer brauchen könnten, um Gegenstände anhand ihrer Merkmale zu unterscheiden. Mit dem Versuch, das Lernen den künstlichen neuronalen Netzen zu überlassen, sah dieser Ansatz vor, künstliche Neurone in mehrere Ebenen einzuteilen. Gilt es beispielsweise ein Bild zu erkennen, registrierten etwa die Einheiten der ersten Ebene lediglich Helligkeitswerte der Pixel, während die nächste Ebene wiederum  erkennen sollte, dass einige der Pixel zu Kanten verbunden sind, woraufhin die darauf folgende Ebene zwischen horizontalen und vertikalen Linien unterscheidet, bis schließlich jene Ebene erreicht wird, in der die Neurone Augen auseinanderhalten können, und das System weiß, dass in einem Gesicht typischerweise zwei davon auftauchen. Allerdings haben erst steigende Rechenleistung und das dramatische Anwachsen digitaler Datenbestände dem Deep Learning eine neue Chance gegeben. Man extrahierte aus Youtube zehn Millionen Standbilder und ließ diese anschließend in das „Google Brain“ – einem Netzwerk aus tausend Computern, das wie ein Kleinkind Informationen aller Art in sich aufsaugen soll, laufen. Mit einer Million simulierter Neurone und einer Milliarde simulierter Verbindungen übertraf das Google Brain jedes frühere Kunstnetzwerk um das Zehnfache. Die Bilderflut wurde vom Rechnernetz schließlich in drei Kategorien eingeteilt: menschliche Gesichter, menschliche Körper und Katzen.

Deep Learning bezeichnet eigentlich die Wiederbelebung einer älteren Technik aus den Forschungen zur künstlichen Intelligenz, nämlich der künstlichen neuronalen Netze. Diese Rechenverfahren orientieren sich grob an der Arbeitsweise des Gehirns und simulieren dazu ein dicht verwobenes Netz aus einfachen Nervenzellen, und lernen wie ihr natürliches Vorbild aus der Erfahrung, indem sie die Stärke der simulierten Neuronenverbindungen ändern. Nachdem der Versuch, Computer wie Menschen denken zu lassen, jahrzehntelang frustrierende Ergebnisse gebracht hatte, binden Unternehmen wie Google, Apple oder IBM Wissenschaftler an sich, die Expertise im Bereich Deep Learning besitzen. Deep Learning findet heute  Anwendung in der Analyse von größeren Datensätzen, z.B. bei der Gesichtserkennung. Auch basiert etwa das Spracherkennungsmodul von Siri, dem digitalen Assistenten auf dem iPhone, auf einem Deep-Learning-Verfahren, und auch als Google die Spracherkennung für sein Android-Betriebssystem damit ausstattete, sank die Fehlerquote um ein Viertel.

Luc van Gool hat auf Basis des Deep Learning mit zwei Wissenschaftlern der ETH Zürich eine Software entwickelt, die aus hochgeladenen Fotos von Internetnutzern nicht nur das Alter und Geschlecht der auf dem Foto abgebildeten Person schätzt, sondern auch, wie attraktiv derjenige ist. Von einem „Hmm“ über „okay“ und „nice“ bis hin zu „hot“, „stunning“ und „godlike“ reicht dabei die Skala. Mehr als fünf Millionen Besucher hatte die Website seit der Freischaltung im Januar, denn alle wollten wissen, für wie schön der Computer sie und andere hielt. Van Gool et al.  gaben dem Rechner 13000 Porträtfotos und 17 Millionen Bewertungen dieser Fotos, die aus eine Dating-App stammten, denn wer gut aussah, hatte dort bessere Bewertungen als jemand, der nicht so gut aussah. Was Schönheit ist, sollte der Rechner damit selbst herausfinden, und hat es letztlich auch geschafft.

Literatur
Jones, N. (2014). The learning machines. Nature, 505, 146-148.
Hinton, G., Osindero, S. & Teh, Y.(2006). A fast learning algorithm for deep belief nets. Neural Computation, 18,  1527-1554.
http://wiki.ldv.ei.tum.de/Anwendungen%20von%20Deep%20Learning (13-09-09)
http://www.spektrum.de/alias/deep-learning/wie-maschinen-lernen-lernen/1220451 (14-01-19)
http://www.welt.de/print/wams/wissen/article152973896/Total-durchschaut.html (16-03-05)



Falls Sie in diesem Beitrag nicht fündig geworden sind, können Sie mit der folgenden Suche weiter recherchieren:


Das Lexikon in Ihren Netzwerken empfehlen:


You must be logged in to post a comment.

Diese Seiten sind Bestandteil der Domain www.stangl.eu

© Werner Stangl Linz 2017