Die Gefahr, dass der Computer so wird wie der Mensch,
ist nicht so groß wie die Gefahr,
dass der Mensch so wird wie der Computer.
Konrad Zuse
Maschinelles Lernen – Machine Learning – bezeichnet ganz allgemein eine Querschnittsdisziplin aus Statistik, Informatik und Mathematik, die zum Ziel hat, Programme zu entwickeln, die automatisch aus Daten lernen können. Dafür werden eine Vielzahl Lernalgorithmen entwickelt, um eine möglichst große Anzahl von Lernaufgaben zu lösen und dadurch neue Erkenntnisse aus Daten zu gewinnen. Dadurch sollen komplexe Zusammenhänge erkannt und entdeckt werden, wozu Menschen vor allem in Bezug auf Datenmengen, Geschwindigkeit und Genauigkeit nicht in der Lage sind.
Man unterscheidet mehrere Formen des maschinellen Lernens: Das Supervised Learning (überwachtes Lernen) stellt diejenige Form maschinellen Lernens dar, bei der eine Künstliche Intelligenz von Daten lernt, die bereits etwa durch Experten annotiert wurden. Damit sind die Zielwerte relativ eindeutig bestimmbar und die Präzision des Modells ist anhand der Übereinstimmung mit den Lerndaten messbar. Beim Unsupervised Learning (unüberwachtes Lernen) lernen neuronale Netze eigenständig, ohne auf annotierte Daten oder Zielwerte zurückgreifen zu können, d. h., in diesem Fall wird also versucht, einen eigenen Zugang zu den Daten zu entwickeln. Eine Mischform ist das Selfsupervised Learning (selbstüberwachtes Lernen, bei dem die eigenen Ergebnisse der Künstlichen Intelligenz anhand eines kleinen, annotierten Datensatzes geprüft und gegebenenfalls angepasst werden.
Um komplexe Zusammenhänge zu entschlüsseln, ist es auch notwendig, Muster zu erkennen und dadurch neues Wissen zu generieren. Ein typisches Beispiel ist etwa die Klassifikation zur Erkennung von E-Mails als Spam. Ein weiteres Beispiel für maschinelles Lernen steht etwa hinter Cortana, Siri oder auch Google, denn diese Algorithmen werden unter anderem für die Spracherkennung und Textanalyse eingesetzt, wobei sie im Falle der Sprachassistenten die NutzerInnen kennenlernen, basierend auf deren Suchen, deren Texten und auf deren Anliegen und Fragen. Äußerst komplexe Systeme sind auch autonome Fahrzeuge, deren Steuerung ebenfalls durch maschinelles Lernen verbessert werden soll.
Maschinelles Lernen ist eine Technologie im Rahmen der künstlichen Intelligenz-Forschung, die versucht, große Mengen an Daten durch Algorithmen zu verarbeiten, um eine automatische Repräsentationen von ähnlichen Inhalten abzuleiten. So kommen etwa in einem Text ähnliche Wörter auch in ähnlichen Zusammenhängen vor, was man benutzt, um die Bedeutung eines Wortes daraus abzuleiten. Beim maschinellen Lernen geht es ganz allgemein um Lernmuster, also genau um das, was im wirklichen Leben auch geschieht, man gewinnt Wissen aus den Erfahrungen und trifft auf der Grundlage dessen neue Entscheidungen, was man in der Vergangenheit gelernt hat (Stangl, 2020).
Maschinelles Lernen ist wohl die Schlüsseltechnologie der Künstlichen Intelligenz, die in der Kombination mit den klassischen KI-Methoden zu aufsehenerregenden Leistungen geführt hat. So konnten Schach- und Go-Meister geschlagen, Objekte in Bildern erkannt und neue, real wirkende Bilder erzeugt werden. Gerade wenn Mensch und Maschine wie bei den Spielen sich gleichberechtigt gegenüberstehen, wird darüber diskutiert, ob Maschinen intelligent sein und den Menschen ersetzen können. Die Frage nach einer allgemeinen oder gar umfassenden künstlichen Intelligenz lenkt aber von der tatsächlichen Forschung und ihren Anwendungen ab, denn faktisch werden einzelne Prozesse durch maschinelles Lernen optimiert und die Lernfähigkeit dient dazu, aus riesigen Datenmengen Information zu gewinnen. Google war die erste Suchmaschine, die maschinelles Lernen einsetzte und deshalb so erfolgreich war, doch als wichtigsten Einsatz maschinellen Lernens bei Google gilt die bessere Steuerung der Rechenzentren, denn durch KI konnten dieie Kosten für die Kühlung deutlich gesenkt werden. Beide Google-Anwendungen maschinellen Lernens machen deutlich, dass Lernergebnisse direkt in Handlungen umgesetzt werden und Teil eines einbettenden Systems sind. Lernverfahren der Künstlichen Intelligenz leiten aus Beobachtungen Zielwerte ab, wobei Beobachtungen durch Attributwerte (Werte von Zufallsvariablen) oder einzelne Fakten gegeben sind. Schon früh wurde ein Lernverfahren vorgestellt, das Regeln aus Beobachtungen lernen und die gelernten Regelwerke zur Ableitung von Vorhersagen nutzen konnte. Diese Entwicklung der TU Berlin wurde später zu einem System weiterentwickelt, das interaktiv mit einem Benutzer eine Wissensbasis aufbauen, strukturieren, modifizieren, auf Widersprüche hin untersuchen und diese auslösen konnte. Die Lernverfahren basierten dabei auf einer eingeschränkten Prädikatenlogik, d. h., aus wenigen Daten in einer verständlichen Repräsentation entwickelten und pflegten System und Benutzer gemeinsam eine Wissensbasis, deren Schlussfolgerungen in der betreffenden Anwendung genutzt werden (Morik, 2018).
Übrigens: Manchmal, wenn man von Künstlicher Intelligenz spricht, meint man eigentlich Machine Learning, das sich speziell damit befasst, wie Maschinen selbständig dazulernen können. Die Art und Weise, wie Menschen Muster erkennen, Aussagen widerlegen und Erfahrungen sammeln, wird durch Mustererkennung, Modelllernen und große Datenmengen technologisch nachempfunden.
Auch bei der Entwicklung von lernenden Robotern wird diese Methode eingesetzt, damit diese gewissermaßen durch Versuch und Irrtum sich weiterentwickeln können. Dabei werden Daten in grob simulierten Neuronen verarbeitet, wobei auch Verstärkungslernen eingesetzt wird, wodurch eine lernende Software entsteht, indem diese Entscheidungen trifft und dann Rückmeldungen über deren Folgen erhält, so wie es auch bei Menschen und Tieren annähernd der Fall ist. Diese Form des Machine Learning, die man auch als Deep Learning bezeichnet, ist daher auch für die Robotik nützlich, denn einer der Gründe dafür, dass es noch nicht mehr Roboter im Alltag gibt, liegt darin, dass sie vorab programmiert werden und sie daher schlecht darin sind, mit unerwarteten Ereignissen zurechtzukommen oder Neues zu lernen.
Maschinellen Lernen kommt in vielen Bereichen zur Anwendung, bei Streamingdiensten, bei der Cybersicherheit, in der Logistik oder der Industrie, wobei aktuell zahlreiche neue Berufsfelder wie Maschinelles Lernen-Engineer oder Data Scientist im Umfeld von Künstlicher Intelligenz und Maschinellem Lernen entstehen, deren Jobprofile im Einzelnen sehr unterschiedlich aussehen. Dabei ist die Arbeit wegen der vielen Anwendungsfelder interessantund bietet eine große Bandbreite wie Programmieren, Visualisieren, Kommunizieren mit verschiedenen Teams und Kreativität, da viel experimentiert werden muss.
Kurioses: Amazon nutzt eine maschinelle Lerntechnik, die auf künstlichen neuronalen Netzwerken basiert, und vom menschlichen Gehirn inspiriert ist, um Bilder von modischen Outfits zu erkennen, indem sie eine Reihe von Bildern analysiert. Wenn dieses Netzwerk mit Tausenden von Bildern von Maxi- und Faltenröcken gefüttert wird, soll es in der Lage sein, den Unterschied zwischen den beiden Stilen zu erkennen. Dafür müssen genügend Beispiele vorhanden sein, um das Netzwerk zu trainieren, jedes Kleidungsstück zuzuordnen. StyleSnap, so heißt dieses Programm, ermöglicht es Usern, auf der App ein Bild von einem gewünschten Look hochzuladen, worauf Amazon dann Empfehlungen für ähnliche Artikel auf der Plattform sendet, wobei StyleSnap Marke, Preisspanne und Kundenbewertungen berücksichtigt. Die Anwendung muss dabei die unterschiedlichsten Posen und Locations erfassen, wobei StyleSnap Deep Learning nutzt, um Kleidungsstücke auf einem Foto zu identifizieren und etwa in Kategorien wie Fit-and-Flair-Kleider oder Flanell-Shirts einzuteilen. Das Programm soll auch Mode-Influencern helfen, ihre Community zu erweitern.
Christoph Lampert, Professor am Institute of Science and Technology (IST) Austria in Klosterneuburg, zu den Neuentwicklungen des maschinellen Lernens: „Wir stellen beispielsweise die Frage: Wie kann maschinelles Lernen davon profitieren, dass mehrere Dinge gleichzeitig trainiert werden? Oder wie kann ein Computer inkrementell – also kontinuierlich über die Zeit – neue Dinge lernen, ohne alte, schon gelernte zu vergessen? Diese Fähigkeiten haben aktuelle Modelle nicht. Wenn ein Computer trainiert wird, Katzenfotos im Internet zu finden, erinnert er sich nicht daran, dass er davor nach Hunden gesucht hat. Er fängt jedes Mal bei null an. Im Vergleich zum menschlichen Lernen wirkt das unnatürlich. Jeder Mensch nutzt beim Lernen das, was er früher gelernt hat, als Grundlage. Dieses Prinzip auf das maschinelle Lernen zu übertragen ist eine unserer Herausforderungen. Wenn meine kleine Tochter im Zoo lernt, was ein Zebra ist, benötigt sie nur ein Bild, um zu wissen, wie dieses Tier aussieht. Der Computer benötigt im Moment tausende Bilder von Zebras. Er hat völlig vergessen, was er sonst schon über Tiere gelernt hat. (…) Bisher braucht der Computer vielleicht 1000 Bilder eines Zebras, um gut zu wissen, wie dieses Tier aussieht. Mit unseren Techniken soll diese Zahl reduziert werden. Er braucht dann vielleicht nur noch 100 oder zehn oder drei. Den Zeitpunkt, zu dem wir sagen „Wir sind fertig“ wird es nicht geben. Aber irgendwann wird man sagen: Es ist gut genug für die momentanen Umstände. (…) Eine konkrete Anwendung liegt im Bereich der Sprachen: Es ist heute kein Problem, eine Übersetzung vom Deutschen ins Englische zu trainieren. Es gibt Milliarden Dokumente im Netz, anhand derer das gemacht wird. Es gibt aber Sprachen, zu denen es online viel weniger Dokumente gibt. Würde man ein Übersetzungsprogramm für Maltesisch trainieren wollen, wäre wahrscheinlich nicht genug Material vorhanden. Wenn man aber Vorwissen mitintegrieren kann – etwa dass Maltesisch verwandt mit dem Arabischen ist, aber viele italienische Wortübernahmen enthält –, wird es einfacher.“
Beispiel: Die Wirksamkeit von Krebsmedikamenten vorhersagen
Mit dem Aufkommen der Pharmakogenomik – diese befasst sich wie die Pharmakogenetik mit dem Einfluss der Erbanlagen auf die Wirkung von Arzneimitteln – nutzt man maschinelles Lernen, um die Arzneimittelantwort von Patienten vorherzusagen, die sich individuell von jenen Algorithmen unterscheidet, die aus zuvor gesammelten Daten zu Arzneimittelantworten abgeleitet wurden. Die Eingabe hochwertiger Lerndaten, die die Arzneimittelreaktion eines Menschen so gut wie möglich widerspiegeln können, ist der Ausgangspunkt für die Verbesserung der Genauigkeit der Vorhersage. Nun wurde die Genauigkeit der Vorhersagen zur Reaktion auf Krebsmedikamente erfolgreich erhöht, indem man Daten verwendete, die der Reaktion eines realen Menschen am nächsten kommen. Bekanntlich reagieren diese mit demselben Krebs unterschiedlich auf Krebsmedikamente, sodass eine maßgeschneiderte Behandlung für die Behandlungsentwicklung von großer Bedeutung ist. Die aktuellen Vorhersagen basierten meist auf genetischen Informationen von Krebszellen, was deren Genauigkeit einschränkte. Aufgrund unnötiger Biomarker-Informationen bestand beim maschinellen Lernen ein Problem des Lernens aufgrund falscher Signale. Um die Vorhersagegenauigkeit zu erhöhen, führte das man nun Algorithmen für maschinelles Lernen ein, die ein Proteininteraktionsnetzwerk verwenden, das mit Zielproteinen interagieren kann, sowie das Transkriptom einzelner Proteine, die in direktem Zusammenhang mit Wirkstofftargets stehen. Es induziert das Lernen der Transkriptomproduktion eines Proteins, das funktionell nahe am Zielprotein liegt, sodass nur ausgewählte Biomarker anstelle von falschen Biomarkern gelernt werden können, die das herkömmliche maschinelle Lernen lernen musste, was die Genauigkeit erhöhte. Darüber hinaus wurden Daten von vom Patienten stammenden Organoiden und nicht von Tiermodellen verwendet, um die Diskrepanz der Reaktionen bei tatsächlichen Patienten zu verringern. Mit dieser Methode wurde etwa vorausgesagt, dass mit 5-Fluorouracil behandelte Darmkrebspatienten und mit Cisplatin behandelte Blasenkrebspatienten mit den tatsächlichen klinischen Ergebnissen vergleichbar sind (Kong et al., 2020).
Maschinelle Übersetzungen
spielen im Alltag eine immer größere Rolle, wobei sich die Qualität maschineller Übersetzungen in den letzten Jahren deutlich verbessert hat. Allerdings ist dabei ein Post-Editing maschineller Übersetzungen unabdingbar, denn das spart Zeit, reduziert Fehler, verändert aber die Art der Interaktion mit dem Text. Post-Editing kombiniert die Vorteile von Künstlicher Intelligenz und menschlicher Intelligenz, verschiebt aber auch den Fokus von Übersetzungsarbeiten, denn anstatt Text zu erzeugen, korrigieren Übersetzer Fehler in ansonsten hilfreichen Vorschlägen in der Zielsprache, wobei häufig wiederkehrende Fehler der maschinellen Übersetzung zu verbessern ermüdend und kognitiv anspruchsvoll ist. Während die künstliche Intelligenz gut darin ist, schnell Übersetzungsentwürfe vorzuschlagen, kann nur ein Mensch mit fundierten Kenntnissen der Ausgangs- und Zielsprache lexikalische und semantische Nuancen analysieren und sicherstellen, dass die Bedeutung der Übersetzung identisch ist. Post-Editing verändert aber die kognitive Dimension des Übersetzens, denn es erfordert nicht nur ein Gespür für den Satz in der Originalsprache, sondern auch für die fehleranfällige Ausgabe der maschinellen Übersetzung, den umgebenden Kontext sowie die Leserschaft und deren kulturellen Hintergrund. Robuste Ansätze zur automatischen Abschätzung dieser veränderten kognitiven Belastung (Cognitive Load) beim Post-Editing ermöglichen ein besseres Verständnis dafür, ob und wann maschinelles Übersetzen den Arbeitsprozess eher unterstützt oder behindert. Bei der maschinellen Übersetzung treten nicht nur tatsächliche Fehler auf, die diese trifft mitunter auch immer wieder dieselben lexikalischen oder stilistischen Entscheidungen, mit denen der Übersetzer möglicherweise nicht einverstanden ist, sodass im gesamten Text dann ähnliche Modifikationen erforderlich sind. Eine Möglichkeit ist dabei die Verwendung von Deep-Learning-Architekturen für das automatische Post-Editing, die die Ausgabe jedes Black-Box-Übersetzungs–Systems an eine bestimmte Domäne oder einen bestimmten Stil anpassen können. Anstatt übersetzen zu lernen, lernen solche Systeme aus wiederkehrenden menschlichen Korrekturen und wenden sie auf Vorschläge der maschinellen Übersetzung für neue Texte an.
Literatur
Kong, JungHo, Lee, Heetak, Kim, Donghyo, Han, Seong Kyu, Ha, Doyeon, Shin, Kunyoo & Kim, Sanguk (2020). Netzwerkbasiertes maschinelles Lernen in kolorektalen und blasenorganoiden Modellen sagt die Wirksamkeit von Krebsmedikamenten bei Patienten voraus. Naturkommunikation, 11, doi:10.1038/s41467-020-19313-8.
Morik, Katharina (2018). Schlüsseltechnologie Maschinelles Lernen. Digitale Welt, 2, 22-27.
Stangl, Benjamin (2020). Maschinelles Lernen – roboter.
WWW: https://roboter.stangl.wien/maschinelles-lernen/ (2020-04-25).
Stangl, W. (2019, 25. Februar). Was ist maschinelles Lernen? Stangl notiert ….
https://notiert.stangl-taller.at/neue-medien/was-ist-maschinelles-lernen/.
https://twittersmash.com/meldungen/maschinelles-lernen-das-die-wirksamkeit-von-krebsmedikamenten-vorhersagt/ (20-11-03)
https://www.derstandard.at/story/2000120023879/mathematiker-wie-kann-ein-computer-lernen-ohne-zu-vergessen (20-09-22)
https://idw-online.de/de/news761197 (21-01-15)
Bei Machine Learning handelt es sich um statistische Methoden, mit deren Hilfe Maschinen aus Daten lernen können. Im Kern geht es darum, dass die fest vorgegebene Regel durch einen Datensatz ersetzt wird, an dem die Maschine mehr oder weniger selbständig lernen kann. Für etwa eine Lampe mit Bewegungssensor werden also für Machine Learning zwei zusätzliche Komponenten nötig: Erstens eine Datenbank, in der unterschiedliche Bewegungsmuster mit der Information „ungefährlich“ und „gefährlich“ verknüpft sind, und zweitens einen Computer, der solche Verknüpfungen mithilfe eines Algorithmus auswertet, das vom Sensor erfasste Bewegungsmuster interpretiert und anschließend nur beim Ergebnis „gefährlich“ die Lampe anschaltet. In diesem klassischen Anwendungsfeld von überwachtem Lernen (supervised learning) kann der Algorithmus auf eine Datenbank zugreifen, die die relevante Kategorisierung gefährlich/ungefährlich für jede einzelne Konstellation gleich mitliefert. Beim unüberwachten Lernen (unsupervised learning) hingegen muss der Computer ohne vorgegebene Klassifikation auffällige Muster erkennen.