Zum Inhalt springen

künstliche Intelligenz

    Solange wir nicht einmal wissen,
    wie menschliche Intelligenz zustande kommt,
    können wir keine künstliche Intelligenz schaffen.
    Reinhard Furrer

    Künstliche Intelligenz ist mir lieber als gar keine Intelligenz.
    Michael Crichton

    Künstliche Intelligenz (KI) bzw. artificial intelligence (AI) ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens befasst, wobei der Begriff nicht eindeutig abgrenzbar ist, da es bekanntlich auch an einer exakten Definition von Intelligenz mangelt. Im Allgemeinen bezeichnet künstliche Intelligenz den Versuch, eine menschenähnliche Intelligenz nachzubilden, d. h., einen Computer zu bauen oder so zu programmieren, dass dieser eigenständig Probleme bearbeiten kann. Oftmals wird damit aber auch eine effektvoll nachgeahmte, vorgetäuschte Intelligenz bezeichnet, insbesondere bei Computerspielen, die durch meist einfache Algorithmen ein intelligentes Verhalten simulieren soll (schwache künstliche Intelligenz).

    Es wird zwischen starker künstlicher Intelligenz und schwacher künstlicher Intelligenz unterschieden. Die starke künstliche Intelligenz setzt sich mit der Entwicklung einer künstlichen Intelligenz auseinander, die wie ein Mensch kreativ nachdenken und Probleme lösen kann und sich durch ein (Selbst-) Bewusstsein und Emotionen auszeichnet. Die schwache künstliche Intelligenz arbeitet an der Entwicklung einer Intelligenz, die im Gegensatz zur starken ausschließlich intelligentes Verhalten simuliert und deren Handlungen auf mathematischen Mitteln basieren, womit konkrete Problemlösungen angegangen werden sollen. Vereinfacht gesagt, die einen wollen Computer erschaffen, die das menschliche Denken mechanisieren sollen (starke Künstliche Intelligenz), die anderen stellen mögliche Anwendungen in den Mittelpunkt, bei denen Teilaspekte der menschlichen Intelligenz auf ihre Nachformbarkeit und Nutzbarmachung untersucht werden (schwache Künstliche Intelligenz). Die schwache künstliche Intelligenz wird derzeit eher noch auf einen sehr eingegrenzten Bereich angewendet, etwa bei der Analyse von Daten zu einer besseren Diagnose oder bei der Bilderkennung für die Sortierung großer Bildbestände. Der entscheidende Unterschied ist dabei aber immer, dass die für Bilderkennung entwickelten Algorithmen ihre Schlüsse nicht auf ein anderes Gebiet übertragen kann (Generalisierung), und zwar selbständig wie ein Mensch. Derzeit sind neuere Methoden des maschinellen Lernens wie neuronale Netze schon  in der Lage, aus großen Datenmengen eigenständig zu lernen, um etwa bestimmte Muster wie Gesichter zu erkennen. Allerdings werden noch lange nicht die komplexen Strukturen eines menschlichen Gehirns auch nur annähernd erreich, denn kein System kann es mit den Milliarden von Neuronen, den Billionen von Synapsen im menschlichen Gehirn auch nur annähernd aufnehmen.

    Die neuesten Trends in der AI-Forschung gehen dahin, intelligente künstliche Systeme zu entwickeln, die sich durch Interaktion mit ihrer Umwelt Erfahrungen und Wissen aneignen und darauf basierend Lernmechanismen entwickeln. Das Verständnis kognitiver Prozesse und der Grundlagen des Lernens hat in den letzten Jahren die Grundlage zahlreicher technischer und naturwissenschaftlicher Anwendungen gebildet, wobei in der praktischen Umsetzung  diese angewandten Methoden jedoch in einem großen Maß von menschlichen Experten abhängig sind, die die Systeme mit bestimmten Parametern und Lernalgorithmen ausstatten und diese dementsprechend steuern. Vor allem versucht man nun zu erforschen, wie unabhängige Systeme auf Basis der Interaktion mit ihrer Umwelt selbständig meffiziente Lernmethoden entwickeln, um den entscheidenden Schritt machen vom rein maschinellen Lernen zu autonomen Lernen in einer komplexen Umgebung. Dabei geht es etwa um das Finden geeigneter Repräsentationen des Lernens, das Lernen hierarchischer Repräsentationen und abstrakter Ebenen, aber auch um die optimale Erforschung der Umgebung und den Mechanismen der Informationsbeschaffung. Man versucht sich daher auch in der Entwicklung von Lernmechanismen in einer fiktiven Echtweltumgebung, wobei man rationales Lernen mit der kognitiven Robotik zu verbinden sucht. Letztlich ist das Ziel neuerer Forschung in diesem Bereich die Entwicklung lernfähiger künstlicher Systeme, die im Gegensatz zum maschinellen Lernen in der Lage sind, im Zusammenspiel mit ihrer Umwelt komplex und angepasst zu agieren. Dazu gehört eetwa die Fähigkeit, das konkrete Lernproblem zu erkennen und zielgerichtet auf die Lösung dieses Problems hinzuarbeiten, wobei diese Systeme selbständig über die dazu notwendigen Aktionen, über Auswahl des notwendigen Lernalgorithmus und entsprechender Parameter entscheiden sollen. Dazu ist es notwendig, jene Lernprinzipien aufzudecken, in denen sich sowohl die eigene Morphologie als auch die Umgebungsbedingungen widerspiegeln. Man entwickelt derzeit dazu Agenten, die zunächst ohne spezifisches Wissen über ihren eigenen Körper und ihr Umfeld in einer virtuellen Umgebung platziert werden, und versucht, die nun beginnenden Bewegungsabläufe und Aktionen der Agenten und deren zugrunde liegenden autonomen Lernprozess, der sich als Zusammenspiel entsprechenden interner Repräsentationen der Welt, des eigenen Körpers und derer Interaktion gestaltet, zu verstehen und zu beeinflussen. Allerdings ist man noch immer weit davon entfernt, künstliche Systeme zu entwickeln, die sich selbstständig in natürlichen und möglicherweise auch unbekannten Umgebungen zurechtfinden.

    Rekabsaz & Schedl (2020) haben gezeigt, dass Entscheidungen von Maschinen mittels Künstlicher Intelligenz sich in der Vergangenheit als diskriminierend oder rassistisch erwiesen haben, wobei besonders die Ergebnisse von Suchmaschinen, die Deep Learning nutzen, sexistisch verzerrt sind. Das liegt daran, dass die Algorithmen auf Daten zugreifen, oft mit Vorurteilen belastet sind, denn so werden Menschen mit Migrationshintergrund als weniger kreditwürdig eingestuft, von Polizeicomputern häufiger verdächtigt oder sie bekommen von sozialen Plattformen Angebote für schlechtere Jobs oder Wohnungen. In der Studie wurden Modelle bzw. Algorithmen analysiert, die in Suchmaschinen verwendet werden und die auf realen Suchanfragen basieren. Man teilte dabei die Suchfragen in zwei Gruppen: Einerseits solche, die geschlechtsneutral sind und Antworten ohne Gender-Bias lieferten, die andere Gruppe bildeten Anfragen, die zumindest im Englischen nicht explizit geschlechtsspezifisch sind, etwa die Frage nach dem Einkommen einer Pflegekraft (der Begriff „nurse“ steht im Englischen sowohl für Krankenpfleger als auch für Krankenpflegerin) oder die Frage nach einem Synonym für „schön“. Obwohl diese Fragen geschlechtsneutral formuliert waren, warfen die Suchmaschinen vor allem Antworten im Zusammenhang mit Frauen aus, während Männer erst weit hinten vorkamen, andererseits liefert etwa die Suche nach CEO, also den Geschäftsführer eines Unternehmens, oder Programmierern überwiegend männlich konnotierte Antworten. Es hat sich also gezeigt, dass gerade die neuesten Deep Learning-Algorithmen eine besonders ausgeprägte geschlechtsspezifische Verzerrung verursachen, wobei solche Algorithmen von zwei der größten Suchmaschinen eingesetzt werden. Ursache für die Verzerrung ist dabei, dass jene Systeme, die Deep Learning nutzen, nicht nur nach dem Suchbegriff alleine suchen, sondern auch ähnliche Begriffe oder Themenbereiche ebenfalls berücksichtigen. Im Fall „nurse“ suchen sie etwa auch nach „matron“ (Oberschwester), wodurch sie zunehmend zur weiblichen Interpretation der Suchanfrage tendieren. Diese von Menschen gesammelten und aufbereiteten Daten, auf denen die KI basiert, beinhalten zwar bereits diese Tendenzen, doch die Suche mit Hilfe der Künstlichen Intelligenz verstärkt diesen Effekt noch. Zwar wurde in der Untersuchung nur der Geschlechter-Bias erhoben, doch dürften solche Effekte auch in anderen Bereichen wie Alter, ethnischer Zugehörigkeit oder Religion vorkommen. Es ist daher wichtig, sich die Verzerrung von solchen automatischen Ergebnissen durch menschliche Vorurteile bewusst zu machen und bereits bei der Programmierung der Algorithmen zu berücksichtigen.

    Künstliche Intelligenz ist nach Ansicht von Sabine Köszegi (Interview in der Presse vom 13. Juni 2020) weniger intelligent als viele Menschen glauben, wobei sich vor allem viele ethische Fragen stellen, aber auch praktische, denn neuronale Netze sind viel zu komplex, um sie nachvollziehen und verstehen zu können. Die künstliche Intelligenz kann zwar bestimmte Dinge besser als Menschen, denn sie basiert auf guten Rechenmaschinen, die sehr viele Daten, sehr viele Variablen berücksichtigen und präzise verarbeiten können, wodurch sie besser und schneller als Menschen sind, die von solchen Datenmengen überfordert wären. Aber: Maschinen verstehen nicht, was sie tun, denn es sind nach wie vor mathematische Modelle, Wahrscheinlichkeitsberechnungen, wobei es den Maschinen ganz gleich ist, ob sie ein Vorhersagemodell für die Wetterprognose berechnen oder dafür, ob ein Mensch gut in den Arbeitsmarkt integrierbar ist, ob jemand Krebs hat oder nicht. Bei einer Entscheidungsunterstützung ist es aber wichtig zu wissen, warum man etwas tut, in welchem Kontext eine Entscheidung steht, welches Ziel verfolgt wird, welche Konsequenzen diese Entscheidung hat. Dieser Teil muss immer vom Menschen kommen.


    Jaromir Konecny schreibt dazu am 5. März 2019 unter dem Titel „Das superintelligente Gespenst“ in Spektrum.de über den Stand der Forschung zur Künstlichen Intelligenz: „Unsere heutigen Künstliche-Intelligenz-Programme sind künstliche neuronale Netze. Diese Optimierungsverfahren können Muster in sehr großen Datensätzen erkennen und Sachen unterscheiden. Das jedoch nach viel Training. Sie sind nur eine Ansammlung von zusammenverbundenen Punkten in einem Computerprogramm. Die Verbindungen zwischen diesen Punkten werden beim Training des Netzes mit Hilfe von Mathematik schrittweise so lange gestärkt oder geschwächt, bis das Netz eine optimale Antwort auf seine Aufgabe liefert. Ein solches KI-Programm kann – an Millionen Wohnzimmerbildern trainiert – besser und schneller als der Mensch jeden Gegenstand auf dem unbekannten Foto eines Wohnzimmers bestimmen. Wenn man aber in das Wohnzimmerbild einen Elefanten kopiert, ist das Programm so verwirrt, dass es nicht einmal das Fernsehgerät von dem Elefanten unterscheiden kann. Das Programm hat keine Ahnung, was ein Fernsehgerät ist und was ein Elefant. Wenn ein Elefant in einem Wohnzimmer auftaucht, verwechselt das Programm den Stuhl mit dem Sofa, so verwirrt ist es. Hätte man schon während des Trainings des Netzes in alle Wohnzimmerbilder einen Elefanten kopiert, würde das Netz ein Wohnzimmerbild ohne einen Elefanten nicht als das Bild eines Wohnzimmers erkennen.“


    Starke Künstliche Intelligenz

    Die neueste Entwicklung auf dem Sektor der Künstlichen Intelligenz ist die Entwicklung einer sicheren Starken Künstlichen Intelligenz – SKI. Der wesentliche Unterschied einer Starken Künstlichen Intelligenz zu aktuellen Künstlichen Intelligenz ist die Fähigkeit zur Problemlösung in nicht im Voraus definierten Situationen, wobei das Vorbild der Mensch ist, der in der Lage ist, für unbekannte Probleme in ungewohnten Umgebungen neue Lösungen zu finden. Dabei gibt es vier Anforderungen an eine Starke Künstliche Intelligenz. Sie soll

    • schwere Probleme in einer Simulation lösen,
    • dort gelernte Fähigkeiten in die echte Welt übertragen,
    • gute Modelle unserer Welt erstellen können
    • und sicher sowie vor Missbrauch geschützt sein.

    Erste Ansätze finden sich in den Neuronalen Netzen im Zusammenhang mit überwachtem Lernen, wobei überwachtes Lernen grundsätzlich in der Lage sein sollte, jedes von Menschen lösbare Problem in kurzer Zeit zu lösen. Überwachtes Lernen benötigt dabei vorbereitete Daten und damit menschliche Arbeit, denn komplexe Probleme, in denen es keine vorbereitete Daten gibt, sind für solche Netzwerke nicht zu lösen, da der Trainingsaufwand viel zu hoch wäre. In jenen Fällen, in denen ein klares Ziel in einer simulierten Umgebung existiert, ist das bestärkende Lernen eine Alternative, d. h., die Künstliche Intelligenz bekommt ein Ziel gesetzt und muss ihren Weg zum Ziel eigenständig finden, wobei sie für jede Aktion, die sie dem Ziel näherbringt, belohnt wird.

    Eine kritische Stimme dazu: Yulia Sandamirskaya, Neuroinformatikerin an der ETH Zürich

    Wir werden im Denken und Handeln die Diener der Maschine, die wir entwickelt haben, um uns zu dienen.
    John Kenneth Galbraith

    In der zweiten Hälfte des vergangenen Jahrhunderts hat sich der Begriff Künstliche Intelligenz für eine Form der Informatik eingebürgert, die versucht, künstliche Systeme zu bauen, die Aufgaben erledigen sollen, zu denen nur Menschen fähig sind. Dazu gehören abstraktes Denken, die Manipulation von Symbolen, Logik, das Lösen mathematischer Probleme und Spielen. Diese Form der Künstlichen Intelligenz ist Jahrzehnten auf der Stelle getreten und irgendwann haben die Menschen realisiert, dass ein großer Teil der menschlichen Intelligenz auf sensomotorischen, körperlichen Prozessen beruht und weniger mit dem Lösen von mathematischen Problemen zusammenhängt als mit Wahrnehmung, motorischer Kontrolle und der Fähigkeit zu lernen. Die Fähigkeit von Menschen, neue Objekte schnell zu erkennen, Verallgemeinerungen in neue Situationen zu treffen oder Fähigkeiten wie Radfahren oder ein Instrument spielen zu erlernen sind herausfordernder als die Planungsprozesse hinter einem Brettspiel wie Schach. Solche künstlichen kognitiven Systeme zu bauen könnte irgendwann zu robotischen Assistenten führen, die mit Objekten und Menschen interagieren können, statt nur abstrakte Probleme zu lösen.

    Bisher konnte man noch keine technischen Systeme bauen, die sich selbst autonom verbessern können, und zwar ohne exakt vorbereitete und kategorisierte Daten oder clever designte Belohnungs/Kosten-Funktionen, die den Lernprozess in die richtige Richtung für die Lösung einer bestimmten Aufgabe lenken können – im Fachjargon als Singularität bezeichnet. Zwar wird smarte Technologie immer mehr den Alltag durchdringen, aber sie wird unter menschlicher Kontrolle bleiben. Die Maschinen und Algorithmen von heute sind ziemlich limitiert, was intelligente und flexible Interaktion mit der echten Welt betrifft, d. h., der Fortschritt in diesen Bereichen ist zur Zeit recht langsam, auch weil Zusammenarbeit zwischen Disziplinen gefordert ist, die traditionell wenig miteinander zu tun hatten. Heute können solche Aufgaben nur unter exakt definierten Laborbedingungen bewältigt werden. Eines von ganz wenigen derartigen Systemen, die im Alltag zurechtkommen, ist der Staubsaugerroboter. Das zeigt den Stand der Technik, der weit entfernt ist von Science-Fiction-Visionen von Roboterhaushaltsgehilfen in jedem Heim. Autonome Fahrzeuge werden zwar entwickelt, sie sind aber von teuren Sensoren abhängig und auch von einer relativ kontrollierbaren und gut definierten Umgebung. Die Flaschenhälse für autonome Systeme bleiben: Wahrnehmung und effiziente Repräsentation des Status der Umwelt, Planung und Kontrolle unter Berücksichtigung dieser Wahrnehmung, Lernen und Interaktion mit Menschen.

    Quelle: Zusammenfassung nach einem Interview über intelligente Maschinen bei den Alpbacher Technologiegesprächen (Hervorhebungen von mir; W. S.).
    WWW: http://futurezone.at/science/go-ist-am-ende-nur-ein-weiteres-computerspiel/212.196.706 (16-08-01)


    Manche ExpertInnen sehen weniger die Gefahr, dass AI den Menschen überflügeln könnte, vielmehr befürchten sie, dass Menschen die Maschinen unterflügeln. Vor einigen Jahren fand man in einer Studie heraus, dass man zwar IQ-Tests tendenziell immer schwerer machen muss, damit der Durchschnitt bei einem IQ von 100 bleibt, doch muss man Kreativitätstests immer einfacher gestalten, denn Menschen tun sich immer schwerer damit, um die Ecke zu denken, also kreative Lösungen für Probleme zu finden.


    Macht die künstliche Intelligenz die Menschen dümmer?

    Viele Experten befürchten, dass der Einsatz von künstlicher Intelligenz bzw. deren Produkte die Menschen dazu anleitet, immer weniger auf die eigenen kognitiven Fähigkeiten zu vertrauen. Cecutti et al. (2021) haben Forschungsarbeiten untersucht, um herauszufinden, welche langfristigen Auswirkungen der technologische Fortschritt auf die kognitiven Fähigkeiten hat, wobei sie sich kritisch mit den einschlägigen Erkenntnissen auseinander setzen und argumentieren, dass es keine eindeutigen Beweise für schädliche dauerhafte Auswirkungen der digitalen Technologie auf die kognitiven Fähigkeiten gibt. Die meisten Experimente zu den kognitiven Fähigkeiten belegen höchstens einen kurzfristigen Effekt, der sich aber langfristig wieder ausgleichen könnte. Es dürfte eher so sein, dass durch den intensiven Gebrauch künstlicher Intelligenz nicht die kognitiven Fähigkeiten der Menschen Schaden nehmen, sondern eher, dass die Technologie die Motivation reduziert, die kognitiven Prozesse überhaupt erst in Gang setzt. Menschen neigen dazu, die digitale Technologie als eine Art externes Gedächtnis zu betrachten und sich auf sie zu verlassen. Offenbar reduzieren die digitalen Technologien nicht so sehr die Erinnerungsfähigkeit, sondern die Art und Weise, wie sich Menschen an Dinge erinnern. Cecutti et al. (2021) zeigen aber eher auf, dass die digitale Technologie die vorherrschenden kognitiven Methoden verändern werden.

    Menschliche vs. künstliche Intelligenz

    Menschliche Gehirne sind bei der Verarbeitung einfacher Informationen, wie z. B. beim Rechnen, langsamer als Maschinen, aber bei der Verarbeitung komplexer Informationen sind sie den Maschinen weit überlegen, da Gehirne besser mit wenigen und/oder unsicheren Daten umgehen können. Das liegt daran, dass Gehirne sowohl sequentielle als auch parallele Verarbeitungen durchführen können, während Maschinen nur ersteres können, und sie sind Computern auch bei der Entscheidungsfindung in Bezug auf große, sehr heterogene und unvollständige Datensätze und andere schwierige Formen der Verarbeitung überlegen. Die Verarbeitungsleistung des Gehirns wird durch die Beobachtung veranschaulicht, dass der viertgrößte Computer der Welt im Jahr 2013 40 Minuten benötigte, um 1 Sekunde von 1 % der Gehirnaktivität eines Menschen zu modellieren. Darüber hinaus hat jedes Gehirn eine Speicherkapazität von schätzungsweise 2.500 Terrabyte, basierend auf seinen 86-100 Milliarden Neuronen mit mehr als 1015 Verbindungen, und arbeitet mit einer 106-fach besseren Energieeffizienz als moderne Maschinen, d. h., KI und Computer stoßen hier an technologische Grenzen. Ein Zebrafisch beispielsweise navigiert durch die Welt, um erfolgreich Beute zu jagen und Raubtiere zu meiden, und benötigt dabei nur 0,1 Mikrowatt, während ein erwachsener Mensch 100 Watt verbraucht, wovon 20 % auf das Gehirn entfallen. Im Gegensatz dazu verbrauchen Cluster, die zur Beherrschung moderner Modelle des maschinellen Lernens eingesetzt werden, in der Regel etwa 106 Watt. Der Stromverbrauch etwa eines neuen Supercomputers beträgt 21 Megawatt, während das menschliche Gehirn mit schätzungsweise demselben 1 exaFlop arbeitet und nur 20 Watt verbraucht. Der Mensch arbeitet also mit einer 106-fach höheren Energieeffizienz als moderne Maschinen, obwohl er ganz andere Aufgaben ausführt (Smirnova et al., 2023).


    Algorithmen der Künstlichen Intelligenz durchdringen den Alltag

    Algorithmen, die Suchergebnisse, Empfehlungen und Informationen für die InternetnutzerInnen auswählen, haben den Alltag der Menschen längst durchdrungen und beeinflussen, wie sie die Welt wahrnehmen. Auf algorithmischer Selektion basierende Dienste wie Google, WhatsApp, Instagram oder Netflix nehmen damit auch Einfluss auf das Verhalten, indem sie die Entscheidungen in eine bestimmte Richtung lenken. Eine repräsentative Befragung in der Schweiz (Latzer et al., 2020) hat nun erhoben, wie Menschen solche Algorithmen wahrnehmen und welche Bedeutung sie ihnen zumessen. Dabei zeigte sich, dass so gut wie alle InternetnutzerInnen (92%) algorithmische Selektionsanwendungen wie WhatsApp (97%), die Google-Suche (96%) oder Facebook (67%) nutzen. Trotzdem stufen die Befragten die Wichtigkeit solcher algorithmischen Anwendungen für ihren Alltag als gering ein und glauben nach wie vor, dass Gespräche mit Freunden und Familienmitgliedern wichtiger sind als algorithmische Online-Alternativen.

    Offenbar ist vielen Usern nicht bewusst, dass oft automatisierte Algorithmen den genutzten Anwendungen zugrunde liegen, also etwa auf Facebook und ähnlichen Diensten News-Feeds durch Algorithmen und nicht von Menschen erstellt werden. Dennoch ist ein diffuses Bewusstsein über Risiken verbreitet, doch zeigt sich eine große Diskrepanz zwischen Problembewusstsein und Verhalten, denn obwohl 93% der Befragten angaben, im Internet einseitig oder verzerrt informiert zu werden, prüft nur ein Viertel der Social-­Media-NutzerInnen die Richtigkeit von Nachrichten, die in ihrem News-Feed erscheinen, indem sie zusätzliche Quellen konsultieren. Interessanterweise ist das Vertrauen in algorithmische Dienstleistungen gering (27%), wobei dieser Kontrollverlust dazu führt, dass sich viele mehr Regulierung wünschen, dass etwa besser kontrolliert werden sollte, wie die sozialen Medien oder die Google-Suche funktionieren.

    Zum Thema „Künstliche Intelligenz in der Medizin“ hat 1997 der Europarat die weltweit erste internationale Bioethikkonvention veröffentlicht, die vielen Mitgliedstaaten geholfen hat, ethische Standards in der Biomedizin zu formulieren. Auch ging es darum, die Kompatibilität dieser Normen mit denen der Europäischen Menschenrechtskonvention sicherzustellen. 2020 hat der Europarat dann einen strategischen Aktionsplan zu Menschenrechten und Technologien in der Biomedizin erstellt und will sich in den kommenden zwei Jahren intensiv mit Künstliche Intelligenz-Themen im Gesundheitswesen beschäftigen. Der britische Datenethik-Forscher Brent Mittelstadt von der Universität Oxford hat dazu einem Bericht erstellt. Darin wird vor möglichen Auswirkungen von Künstlicher Intelligenz auf Menschen- und Patientenrechte gewarnt, etwa im Hinblick auf Ungleichheiten beim Zugang zu hochwertiger Gesundheitsversorgung oder vor sozialen Vorurteilen, die in die Entwicklung von Künstlichen Intelligenz-Systemen einfließen. Mittelstadt fordert mehr Transparenz bei der Entwicklung und beim Einsatz solcher Technologien im Verhältnis zu medizinischen Fachkräften und Patienten sowie den Schutz der Vertraulichkeit von Patientendaten. Weiterhin schildert der Bericht mögliche Folgen der Künstlichen Intelligenz im Hinblick auf den Verlust von Kompetenzen bei Gesundheitsfachkräften und bei der Verlagerung von Verantwortung. Allerdings kann Künstliche Intelligenz Ärzte darin unterstützen, noch effektiver und effizienter zu arbeiten als bisher.

    Christoph Lampert, Professor am Institute of Science and Technology (IST) Austria in Klosterneuburg: „Das Problem beim Thema künstliche Intelligenz ist, dass mittlerweile alle eine Meinung dazu haben, kaum jemand aber weiß, was tatsächlich dahintersteckt. Es wirkt wie Magie. Dabei ist es einfach eine Software, die gewisse Schritte ausführt, die zu einem Ergebnis führen. Manche Dinge werden damit leichter, es gibt aber auch nachteilige Effekte. Als Gesellschaft muss man darüber reden. Es muss einen Diskurs geben, welche Dinge automatisiert werden sollen, welche nicht; welche Daten bereitgestellt werden, welche privat bleiben sollen. Dafür braucht es aber Wissen, nicht nur Meinung. Wir haben uns die Aufgabe gestellt, die Konzepte zu erklären, ohne hinter einer Fachsprache zu verschwinden.“


    Zur Geschichte des Begriffs der Künstlichen Intelligenz

    Auf einer zweimonatigen Konferenz, die der Informatiker John McCarthy im Sommer 1956 organisierte, versammelten sich in New Hampshire Vordenker wie Marvin Minsky und Allen Newell, wobei McCarthy in seinem Antrag für Fördermittel erstmals den Begriff Artificial Intelligence verwendete. Der Entwicklung vorangegangen waren Fortschritte in der Computertechnik, denn 1936 hatte der Mathematiker Alan Turing die Turing-Maschine entwickelt, ein  Rechnermodell der theoretischen Informatik, das die Arbeitsweise eines Computers auf besonders einfache und mathematisch gut zu analysierende Weise darstellt. 1941 stellte Konrad Zuse den ersten automatischen funktionsfähigen Computer der Welt fertig.

    Aktuell beeinflussen Maschinen immer öfter das Leben der Menschen, denn sie entscheiden in vielen Fällen, welche Informationen diese zu sehen bekommen, ob sie von einer Institution eine Mahnung bekommen, welche Aktien erworben werden sollen, welche Produkte wo im Regal eines Supermarktes platziert werden sollen usw. Wer im Internet unterwegs ist, kann diese Entwicklung leicht an der Personalisierung der Werbung beobachten, aber auch an den Vorschlägen, die eine Suchmaschine macht, wenn man nach einem Begriff sicht. Wie das genau geschieht, ist für den Einzelnen oft nicht nachvollziehbar, denn Technologien wie das maschinelle Lernen, in das Milliarden in Investitionen fließen, gewinnen aus großen Datenmengen selbstständig Erkenntnisse, wobei ein solcher Algorithmus allmählich eine Blackbox werden kann. Es stellt sich auch die Frage, wenn Algorithmen immer mehr Entscheidungen treffen, wer entscheidet dann eigentlich vorher, was richtig und was falsch ist und welche Kriterien den Entscheidungen zugrunde liegen sollen?

    Der Turing-Test wird eingesetzt, um zu überprüfen, ob eine Maschine das Denkvermögen eines Menschen hat, wobei für den Test eine Versuchsperson mit einem Menschen und mit einem Computer spricht und dann entscheiden muss, welcher Gesprächspartner der Mensch und welcher die Maschine war. Alan Turing, sah den Test für eine Maschine dann als bestanden an, wenn mindestens dreißig Prozent der Versuchspersonen sie für einen Menschen hielten. Übrigens sind CAPTCHA (completely automated public Turing test to tell computers and humans apart), bei denen man auf Internetseiten aufgefordert wird, eine angezeigte Buchstaben- oder Ziffernkombination einzugeben, ein Ausfluss dieses Prinzips, denn UserInnen sollen so beweisen, dass sie ein echter menschlicher NutzerInnen sind und keine Bots.


    Persönliche Anmerkung (W. S.): Der Begriff Künstliche Intelligenz scheint einem stetigen Wandel zu unterliegen, denn viele Algorithmen oder Anwendungen, die ursprünglich aus der KI-Forschung kommen, werden nach einiger Zeit nicht mehr als KI bezeichnet, sobald man sie beherrscht und sie zur Routine geworden sind. 


    Eine neuere Begriffsbestimmung von Künstlicher Intelligenz:

    Künstliche Intelligenz – artificial intelligence – ist ein Teilgebiete der Informatik und heute ein wichtiger Bestandteil der Technologieentwicklung, in dem man sich mit dem maschinellen Lernen und der Automatisierung intelligenten Verhaltens beschäftigt. Zu den Aktivitäten, für die Computer mit künstlicher Intelligenz entwickelt wurden, gehören Spracherkennung, selbstständiges Lernen, Planung und das Lösen von Problemen. Zu den wichtigsten Fragestellungen der künstlichen Intelligenz gehört das Programmieren von Algorithmen für bestimmte Merkmale wie Wissen, Argumentation, Probleme lösen, Wahrnehmung, Lernen, Planung und die Fähigkeit zum Manipulieren und Verschieben von Objekten.
    Ein Kernbestandteil der Künstliche Intelligenz Forschung ist Knowledge Engineering, denn Maschinen können nur wie Menschen reagieren, wenn sie über reichhaltige Informationen ihrer Umwelt verfügen. Künstliche Intelligenz beschäftigt sich daher mit Objekten, Eigenschaften, Kategorien und Beziehungen zwischen diesen, um Knowledge Engineering zu implementieren, wobei es eine schwierige und langwierige Aufgabe ist, den gesunden Menschenverstand, das Nachdenken und die Problemlösung in Maschinen zu initiieren.
    Maschinelles Lernen ist ein weiterer zentraler Bestandteil der Künstliche Intelligenz, wobei das Lernen von Maschinen das Erkennen von Mustern in Eingabeströmen anhand numerischer Regressionen. statistische Analyseverfahren und die Klassifizierung der erkannten Muster erfordert. Die mathematische Analyse von Algorithmen zum maschinellen Lernen und ihrer Leistung ist dabei ein Zweig der theoretischen Informatik, der als Computerlingualtheorie bezeichnet wird.
    Zu den grossen Vorteilen der Künstlichen Intelligenz gehört die Reduzierung von Fehlern, denn in den meisten Fällen wird Künstliche Intelligenz dafür eingesetzt, um Risiken zu reduzieren. Künstliche Intelligenz erhöht ausserdem die Wahrscheinlichkeit eine größere Genauigkeit zu erreichen, wobei diese etwa im Bergbau im Bereich der Robotik eingesetzt wird.


    Anthropomorphisierung von künstlicher Intelligenz

    Ein Element der AI-Forschung ist die Anthropomorphisierung von Maschinen, die sowohl Ängste als Erwartungen weckt, wobei manche Maschinen oder Roboter als eine Art Übermenschen betrachten. Von diesen erwartet man dann, dass sie perfekt rational, neutral, objektiv und fehlerfrei sind. Der Mensch neigt offenbar von Natur aus dazu, technischen Gegenständen oder damit verbundenen Algorithmen mehr Kapazitäten und sogar menschliche Fähigkeiten wie Intelligenz zuzuschreiben, doch hinter Computern oder Big Data steht letztlich keine Intelligenz, denn das alles sind nur Statistiken, die auch ein Mensch mit extrem viel Zeit errechnen könnte, da Computer eben sehr gut darin sind, große Datenmengen zu verarbeiten. Doch diese Fähigkeiten kann ein Computer nur in gut ausdefinierten oder simulierten Umfeldern einsetzen, hinter denen natürlich immer ein menschliches Gehirn steht, da letztlich ein Computer völlig anders funktioniert als ein menschliches Gehirn. Das liegt vor allem daran, dass das menschliche Gehirn sowohl analog als auch digital ist, denn der Mensch lernt bekanntlich dadurch, dass neue Verbindungen zwischen Nervenzellen entstehen, und das unterscheidet das Gehirn jedoch fundamental von allen derzeit gängigen AI-Netzwerken, in denen Informationen mehr oder minder nur weitergereicht werden. Das menschliche Denkorgan ist darüber hinaus auch multipolar, d. h., dass jede Nervenzelle jede andere beeinflussen kann. Für AI-Netzwerke wäre z. B. komplexes Weltwissen notwendig, um dann überhaupt Entscheidungen treffen zu können, doch das ist extrem schwer zu automatisieren, sodass Kreativität und Problemlösung noch immer jene menschliche Stärke sind, die ein Computer wohl nie erreichen wird.

    Allerdings ist dabei zu bedenken, dass selbstlernende algorithmische Systeme etwa im Bereich der Medizin nichts anderes machen, als in einem riesigen Datenmengen selbständig nach Mustern zu suchen, die ein Mensch nicht oder nur mit größter Anstrengung erkennen würde. Daher eignen sich solche Systeme insbesondere für repetitive Aufgaben wie etwa die Suche nach Auffälligkeiten, Abweichungen oder Gemeinsamkeiten in Datensätzen. Darüber hinaus können AI-Systeme relevante Muster erkennen, nach denen ein Mensch womöglich überhaupt nie gesucht hätte, wobei sie im Gegensatz zu Menschen nie müde oder frustriert werden. Selbstlernende algorithmische Systeme arbeiten dabei ohne Pause und können theoretisch unbegrenzt mit weiteren Daten gefüttert werden, d. h., in diesem Sinne lernen sie. Solche Systeme sind etwa sehr gut darin, zuverlässig Bilder zu bewerten, wobei nachgewiesenermaßen selbstlernende Algorithmen Hautkrebs vergleichsweise kompetenter und sogar sicherer klassifizieren als Dermatologen. Vor allem eine Kombination aus Algorithmus und Mensch hat eine besonders geringe Fehlerquote etwa bei der Beurteilung von MRT-Aufnahmen. Man bezeichnet diese Zusammenarbeit als Human-in-the-loop, wobei es darum geht, Menschen nicht zu ersetzen, sondern zu entlasten.


    Bemerkenswertes: Studierende des Studiengangs ‚Online Master of Science in Computer Science‘ am Georgia Institute of Technology erhielten auf ihre Fragen im Onlineforum des Studiengangs oft Antworten von Jill Watson, allen Anschein nach eine Lehrassistentin an der Hochschule. Am Ende des Studiengangs wurde enthüllt, dass es sich bei Jill um einen KI-Bot basierend auf der Watson-Plattform von IBM handelte. Die meisten Studierenden hatten davon keine Ahnung gehabt.


    Künstliche Intelligenz studieren

    An der Johannes Kepler Universität Linz ist es seit 2019 möglich, ein Bachelorstudium in Artificial Intelligence zu beginnen. Es ist eines der ersten AI-Studien Europas und in Österreich gibt es kein vergleichbares Studium. Dabei soll man lernen, wie Künstliche Intelligenz der Gesellschaft dienen kann und wo die Gefahren liegen. Dazu gehören eine ausgewogene Grundausbildung in Mathematik und Informatik, aber auch spezifischen Themen der Artificial Intelligence wie maschinellem Lernen, Wissensrepräsentation und Sprachverarbeitung werden vermittelt.

    Das Studium soll zu großen Teilen auch als Fernstudium ermöglicht werden.

    Studieninhalte

    • Computer Science: Python Programmierung und die Grundlagen über Algorithmen und Datenstrukturen.
    • Mathematics: Alle für Artificial Intelligence relevanten mathematischen Grundlagen.
    • AI Basics and Practical Work: In Hands-On-Kursen und Praktika werden Grundkompetenzen und Fertigkeiten an realen Problemstellungen erlernt.
    • AI and Society: Wie intelligent können Maschinen sein und wo werden sie im Alltag eingesetzt? Hier geht es um die Bedeutung der Artificial Intelligence für die Gesellschaft und wie intelligente Systeme in Interaktion mit den Menschen stehen.
    • Data Science: Mit Techniken aus Mathematik, Statistik und Informatik wird Wissen aus Daten erzeugt und man lernt Methoden der Sprachverarbeitung und der Signalverarbeitung.
    • Knowledge Representation and Reasoning: Wie kann Wissen so in eine Maschine integriert werden, dass diese Schlüsse daraus ziehen oder Probleme lösen kann?
    • Machine Learning and Perception: Wie können Maschinen aus Daten und Erfahrungen für zukünftige Aufgabenstellungen lernen? Wie nehmen Maschinen ihre Umgebung wahr und lernen sie zu verstehen? Können Maschinen mehr lernen als Menschen?

    Alle Informationen am Institut für Artificial Intelligence in Linz:
    Link: https://www.jku.at/studium/studienarten/bachelordiplom/ba-artificial-intelligence/


    Kurioses im Internet: Kann künstliche Intelligenz einen Eisbären von einem Dosenöffner unterscheiden?

    Literatur

    Cecutti, Lorenzo, Chemero, Anthony & Lee, Spike W. S. (2021). Technology may change cognition without necessarily harming it. Nature Human Behaviour, 5, 973-975.
    Latzer, M., Festic, N., & Kappeler, K.(2020). Reports 1-4 of the project The Significance of Algorithmic Selection for Everyday Life: The Case of Switzerland. Zürich: Universität Zürich.
    Rekabsaz, Navid & Schedl, Markus (2020). Do Neural Ranking Models Intensify Gender Bias?
    WWW: https://arxiv.org/pdf/2005.00372.pdf (20-06-20)
    Smirnova, Lena, Caffo, Brian S., Gracias, David H., Huan,g Qi, Morales, Pantoja Itzy ,E., Tang, Bohao, Zack, Donald J., Berlinicke ,Cynthia A., Boyd, J. Lomax, Harris, Timothy D., Johnson, Erik C., Kagan, Brett J., Kahn, Jeffrey, Muotri, Alysson R., Paulhamus, Barton L., Schwamborn, Jens C., Plotkin, Jesse, Szalay, Alexander S., Vogelstein, Joshua T., Worley, Paul F. & Hartung, Thomas (2023). Organoid intelligence (OI): the new frontier in biocomputing and intelligence-in-a-dish. Frontiers in Science, 1, doi:10.3389/fsci.2023.1017235.
    Stangl, B. (2023, 7. März). Die Grenzen künstlicher Intelligenz. Soziale Robotik.
    https://sozialerobotik.stangl.wien/die-grenzen-kuenstlicher-intelligenz/
    Stangl, W. (2022, 16. Juni). Künstliche Intelligenz in der Medizin. Stangl notiert ….
    https:// notiert.stangl-taller.at/allgemein/kuenstliche-intelligenz-in-der-medizin/
    https://www.bildung-schweiz.ch/topics/kuenstliche-intelligenz (19-01-10)
    https://vrodo.de/starke-kuenstliche-intelligenz-was-definiert-sie-und-ist-sie-erreichbar/ (19-01-28)
    https://www.derstandard.at/story/2000120023879/mathematiker-wie-kann-ein-computer-lernen-ohne-zu-vergessen (20-09-22)
    https://roboter.stangl.wien/digitale-technologien-werden-die-vorherrschenden-kognitiven-methoden-veraendern/ (21-09-21)
    https://www.aerztezeitung.de/Politik/Kuenstliche-Intelligenz-in-der-Medizin-Jetzt-Standards-fuer-Anwendung-setzen-429919.html (22-06-15)


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::

    Ein Gedanke zu „künstliche Intelligenz“

    1. single shot learning

      Die künstliche Intelligenz steht der menschlichen noch um einiges nach, wenn es etwa darum geht, schnell etwas zu lernen (single shot learning) oder das Gelernte ständig weiterzuentwickeln (life-long learning). Darüber hinaus ist das Gehirn im Vergleich zu leistungsstarken Computern extrem platz- und energiesparend, also alles Eigenschaften, die vor allem für den Einsatz von künstlicher Intelligenz in mobilen Anwendungen von großer Bedeutung sind. So benötigt das menschliche Gehirn für hochkomplexe Informationsübertragungen und -verarbeitungen weniger Energie als eine 30-Watt-Glühbirne. Damit verbraucht es im Vergleich zu einem Supercomputer nur ein Millionstel an Energie, was daran liegt, dass Neuronen mithilfe elektrischer Impulse besonders effizient miteinander kommunizieren, denn sie setzen diese Impulse (Spikes) nur sehr sparsam ein. Allerdings gibt es zahlreiche Berechnungen, bei denen Supercomputer um ein Viel­faches schneller sind, etwa wenn es darum geht, große Datenmengen zu verarbeiten. Diese Unterschiede in der Funktionsweise besser zu verstehen, ist sowohl für die Computerwissenschaft als auch für die Gehirnforschung von Bedeutung.

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    Inhaltsverzechnis