Zum Inhalt springen

Neuromorphe Chips

    Die Gefahr, dass der Computer so wird wie der Mensch, ist nicht so groß wie die Gefahr, dass der Mensch so wird wie der Computer.
    Konrad Zuse

    Der Begriff neuromorph wurde von Carver Mead zur Beschreibung von Computerschaltkreisen geprägt, die den neurobiologischen Strukturen des Nervensystems ähneln, wobei der Ausdruck sowohl für analoge als auch digitale sowie gemischte analog-digitale Systeme verwendet wird. Die dafür entwickelten neuromorphen Chips sollen wichtige Eigenschaften biologischer Gehirne wie Energieeffizienz, Robustheit und insbesondere Lernfähigkeit nachahmen, und eine Grundlage für die weitere Entwicklung künstlicher Intelligenz bilden, denn Computer sind beim Lösen von Rechenaufgaben zwar um ein Vielfaches schneller als Menschen, aber mit den  analytischen Fähigkeiten des menschlichen Gehirns können sie nicht mithalten. Insbesondere können solche Systeme bisher nicht kontinuierlich lernen und sich dadurch auch nicht verbessern. Neuromorphe Chips sind Forschungsgebiet der Bionik und der Neuroinformatik, wobei es Prototypen etwa für künstliche Sehsysteme, Geruchsdetektoren, oder Taktgeber für naturnahe Bewegungsabläufe bei Robotern gibt. Gegenüber der normalen Von-Neumann-Architektur in der üblichen Computerhardware zeichnen sich neuromorphe Chips durch eine auf die Aufgabe hochspezialisierte Hardware aus, deren hervorstechendes Merkmal hohe Vernetzung (Interkonnektivität) mit diversen Rückkopplungen ist, d. h., es wird angestrebt auch die selbstorganisierende Entwicklung des Gehirns in diesen Schaltkreisen abzubilden.

    Auf der NICE-Konferenz 2018 (NICE bedeutet Neuro Inspired Computational Elements) wurden drei solcher Chips vorgestellt, die diese Imponderabilien von Computern beseitigen sollen:

    • Der BrainScaleS-Chip beruht auf einem gemischten Analog-Digital-Design, das zwischen 1000 und 10.000 Mal schneller als Echtzeit arbeitet. Der neuromorphe BrainScaleS-Chip der zweiten Generation verfügt erstmals über frei programmierbare On-Chip-Lernfunktionen sowie ein analoges Hardwaremodell komplexer Neuronen mit aktiven Dendritenbäumen, die – nach dem Vorbild von Nervenzellen – insbesondere für die Nachbildung kontinuierlicher Prozesse des Lernens von Bedeutung sind.
    • Der SpiNNaker-Chip basiert auf einer Vielkern-Architektur, d. h., auf ihm wurde aber ein Vielfaches an Prozessorkernen gekoppelt, wobei ein einziger Chip 144 „ARM Cortex M4“-Kerne mit einem innovativen Power-Management für einen sehr effizienten Energieverbrauch. enthält Der SpiNNaker-Chip liefert eine Rechenleistung von 36 Milliarden Anweisungen pro Sekunde und Watt; er soll vor allem für die Simulation mehrskaliger Hirnmodelle in Echtzeit eingesetzt werden.
    • Der Loihi-Forschungschip enthält einen hochentwickelten Befehlssatz für neuronale Netzwerke aus „feuernden“ Neuronen sowie programmierbare Mikrocodes für Lernregeln. Loihi unterstützt eine Reihe von On-Chip-Lernmodellen für überwachtes und unbeaufsichtigtes Lernen sowie Lernprozesse, die auf Verstärkung beruhen.

    Details zu diesen drei Chips:
    https://electronicvisions.github.io/hbp-sp9-guidebook/pm/pm_hardware_configuration.html
    https://electronicvisions.github.io/hbp-sp9-guidebook/mc/spiNNaker_configuration.html
    https://www.golem.de/news/neuromorphic-computing-intels-loihi-chip-ist-gehirn-nachempfunden-1709-130276.html


    Nachahmung der Funktionsweise von Neuronen mit Halbleitermaterialien

    Aufgaben aus dem Bereich der künstlichen Intelligenz verlangen nach leistungsfähigen und dabei gleichzeitig sparsamen Computerchips, um etwa Robotern das Laufen zu lehren oder präzise automatische Bilderkennung zu ermöglichen. Während die Optimierung herkömmlicher Mikroelektronik immer näher an ihre physikalische Grenzen kommt, zeigt die Natur am Beispiel des Gehirns, wie sich Informationen schnell und energieeffizient verarbeiten und speichern lassen. Die heute übliche Methode, um die Leistungsfähigkeit von Mikroelektronik weiter zu erhöhen, liegt in der Verkleinerung der Komponenten, insbesondere der einzelnen Transistoren auf den Computerchips aus Silizium, was aber nicht unendlich möglich ist. Die meisten dieser Programme stehen ihrem biologischen Vorbild in einem entscheidenden Punkt nach, denn im Gegensatz zum menschlichen Gehirn verschlingt deren Ausführung auf Computern enorme Mengen an Energie, wobei etwa aufwändige Modelle wie Übersetzungssoftware für ihr Training etwa fünfmal so viel Energie wie ein Auto über seine gesamte Lebensdauer verbrauchen. Daher versucht man im neuromorphen Engineering Bauteile wie Computerchips herzustellen, die Signale ähnlich wie die Nervenzellen des Gehirns verarbeiten, d. h., anstatt Daten wie in normalen Rechnern über lange Wege zwischen einer zentralen Verarbeitungseinheit, dem Prozessor, und einem Speicher, der Festplatte, immer wieder hin und her zu transportieren, sind die beiden Komponenten als neuromorphe Chips nebeneinander angeordnet. Aufeinander folgende Schichten aus Recheneinheiten sind über Synapsen miteinander verbunden, wobei letztere auch als Speicher fungieren. Elektrische Signale breiten sich somit von Schicht zu Schicht durch das System aus und werden dabei verarbeitet. Damit folgt die Hardware der Funktionsweise künstlicher neuronaler Netze, den derzeit verbreitetsten KI-Algorithmen. Bei diesen sind die Recheneinheiten allerdings virtuell, d. h., sie simulieren ein Neuron, laufen aber auf gewöhnlichen digitalen Bauteilen.

    Nun ist es Baek et al. (2020) erstmals gelungen, die Funktionsweise von Neuronen des Gehirns mit Halbleitermaterialien nachzuahmen, indem man die Eigenschaften der Neuronen mit den Prinzipien von Biosensoren simulierte und einen klassischen Feldeffekttransistor so veränderte, dass ein künstlicher Neurotransistor entsteht. Der Vorteil einer solchen Architektur liegt in der gleichzeitigen Speicherung und Verarbeitung von Informationen in ein und demselben Bauelement, diese bei herkömmlicher Transistortechnik getrennt sind, was der Verarbeitungszeit und damit letztendlich auch der Leistungsfähigkeit Grenzen setzt. Dabei brachte man eine zähflüssige Substanz (Solgel) auf einen herkömmlichen Siliziumwafer mit den Schaltungen auf, wobei dieses Polymer aushärtet und zu einer porösen Keramik wird. Zwischen den Löchern der Keramik bewegen sich Ionen, die schwerer als Elektronen sind und nach einer Anregung langsamer auf ihre Position zurückspringen. Diese Verzögerung (Hysterese) ist dabei für den Speichereffekt verantwortlich. Je stärker der einzelne Transistor angeregt wird, umso eher öffnet er und lässt den Strom fließen, womit sich die entsprechende Verbindung verstärkt, d. h., das System lernt. Computer auf Basis solcher Chips wären sind präzise und schätzen mathematische Berechnungen eher als diese bis in die letzte Nachkommastelle zu berechnen. Ein Roboter mit solchen Prozessoren könnte damit beispielsweise laufen oder greifen lernen, ein optisches System besitzen und lernen, Zusammenhänge zu erkennen, und zwar alles, ohne Software entwickeln zu müssen. Diese Plastizität neuromorpher Computer, die der des menschlichen Gehirns ähnelt, können sich im laufenden Betrieb an veränderte Aufgabenstellungen anpassen und auch solche Probleme lösen, für die sie ursprünglich nicht programmiert wurden.

    Literatur

    Baek, Eunhye, Das, Nikhil Ranjan, Cannistraci, Carlo Vittorio, Rim, Taiuk, Bermúdez, Gilbert Santiago Cañón, Nych, Khrystyna, Cho, Hyeonsu, Kim, Kihyun, Baek, Chang-Ki, Makarov, Denys, Tetzlaff, Ronald, Chua, Leon, Baraban, Larysa & Cuniberti, Gianaurelio (2020). Intrinsic plasticity of silicon nanowire neurotransistors for dynamic memory and learning functions. Nature Electronics, doi:10.1038/s41928-020-0412-1.
    https://tu-dresden.de/tu-dresden/newsportal/news/computer-lernen-das-lernen (18-02-20)
    https://de.wikipedia.org/wiki/Neuromorph (18-02-20)
    https://www.spektrum.de/magazin/neuromorphe-computer-vorbild-gehirn/2008777 (22-05-12)


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert