Artificial neural networks (ANN) – künstliche neuronale Netze – oder manchmal synonym verwendet auch deep learning neural networks – sind eine Form des Maschinenlernens und bilden Netze aus künstlichen Neuronen. Das Konzept künstlicher neuronaler Netze geht die Warren McCullogh und Walter Pitts zurück, denn statt Transistoren schlugen sie Recheneinheiten künstliche Nervenzellen vor, die miteinander zu Schaltkreisen verbunden sind, und anders als Transistoren, die in einem binären Code arbeiten, erst dann ein Signal absenden, wenn die Summe ihrer Inputs einen gewissen Schwellenwert überschreitet. Sie arbeiten also nicht mit binärer Logik, wie Computer, sondern mit einer für organische Systeme typischen Schwellenwert-Logik.
Die Architektur künstlicher neuronaler Netze folgt dem Prinzip, dass tausende künstlicher Neuronen in übereinanderliegenden Schichten angeordnet liegen und über simulierte Leitungen verbunden werden. Ein Neuron kann dabei die benachbarten Neuronen in seiner eigenen Schicht und die der darüberliegenden Schicht über seine Leitungen aktivieren. Die oberste Input-Schicht funktioniert gleichsam als Sensor, der in der Lernphase mit jenen Daten gefüttert wird, die das Netzwerk einordnen soll.
Bei tiefen neuronalen Netzwerken ist es daher nicht eindeutig, worauf sich die Neuronen in den tieferen Schichten nun genau konzentrieren, denn in einem neuronalen Netz sind zwar die Regeln definiert und mathematisch einfach, doch jedes Neuron folgt einer nicht-linearen Funktion und kann etwa auf kleine Input-Werte mit starken Output-Werten reagieren. Daher verhält sich das Netzwerk insgesamt auf nicht-lineare Weise, und es lässt sich zwar in der Summe, aber nicht im Einzelnen vorherberechnen, was im Netzwerk beim Lernen geschieht.
Wenn heute von künstlicher Intelligenz die Rede ist, sind damit in der Regel solche künstlichen neuronale Netze gemeint. Diese stellen jedoch keine künstliche Intelligenz im strengen Sinn dar, sondern sind nur ein Aspekt der Künstliche-Intelligenz-Forschung. Solche künstlichen neuronalen Netze sind statistische Optimierungsverfahren, die in sehr großen Datensätzen, die ein Mensch nicht erfassen kann, Muster und Klassen und Cluster erkennen können.
Artificial neural networks sind Forschungsgegenstand der Neuroinformatik, wobei es meist um eine Abstraktion bzw. Modellbildung bei der Informationsverarbeitung geht und weniger um das Nachbilden biologischer neuronaler Netze und Neuronen, was wiederum Gegenstand der Computational Neuroscience ist.
Anmerkung: Die künstliche Intelligenz steht der menschlichen noch um einiges nach, wenn es etwa darum geht, schnell etwas zu lernen (single shot learning) oder das Gelernte ständig weiterzuentwickeln (life-long learning). Darüber hinaus ist das Gehirn im Vergleich zu leistungsstarken Computern extrem platz- und energiesparend, also alles Eigenschaften, die vor allem für den Einsatz von künstlicher Intelligenz in mobilen Anwendungen von großer Bedeutung sind. So benötigt das menschliche Gehirn für hochkomplexe Informationsübertragungen und -verarbeitungen weniger Energie als eine 30-Watt-Glühbirne. Damit verbraucht es im Vergleich zu einem Supercomputer nur ein Millionstel an Energie, was daran liegt, dass Neuronen mithilfe elektrischer Impulse besonders effizient miteinander kommunizieren, denn sie setzen diese Impulse (Spikes) nur sehr sparsam ein. Allerdings gibt es zahlreiche Berechnungen, bei denen Supercomputer um ein Vielfaches schneller sind, etwa wenn es darum geht, große Datenmengen zu verarbeiten. Diese Unterschiede in der Funktionsweise besser zu verstehen, ist sowohl für die Computerwissenschaft als auch für die Gehirnforschung von Bedeutung.
Bisher hat es noch kein Modell geschafft, das menschliche Gehirn wirklich nachzuahmen, denn auch wenn man die zugrunde liegende Prinzipien dieses Systems wirklich verstanden hat, weil man dessen Reaktionen nachbilden kann – wie es Richard Feynman in dem Satz „What I cannot create, I do not understand“ ausgedrückt hat -, bedeutet das noch lange nicht, dass das Modell auch richtig ist. Vielmehr gilt vermutlich, dass wohl alle Modelle des menschlichen Gehirns falsch sind, doch man kann sich immerhin damit trösten, dass manche vielleicht nützlich sein können (Stangl, 2020).
Literatur
Stangl, W. (2012). Stichwort: ’neuronale Netze‘. Online Lexikon für Psychologie und Pädagogik.
WWW: https://lexikon.stangl.eu/4283/neuronale-netze/ (2012-10-31)
https://scilogs.spektrum.de/gehirn-und-ki/das-meckern-an-der-zukunft/ (18-10-31)
Stangl, B. (2020, 6. Juni). Sind alle Modelle falsch? roboter lexikon.
https:// roboter.stangl.wien/sind-alle-modelle-falsch/