Aus Nanodrähten aufgebaute Transistoren

Nach einer Wissenschaftsmeldung haben Forscher der TU Dresden eine richtungsweisende Arbeit zum Neuromorphen Rechnen veröffentlicht, in sie zeigen, wie aus Nanodrähten aufgebaute Transistoren wichtige Funktionsweisen des menschlichen Gehirns – dynamisches Speichern und Lernen – nachahmen können. Eines der erklärten Ziele der Forschung im Bereich des neuromorphen Rechnens besteht darin, die selbstorganisierende und selbstregulierende Natur des Gehirns in Schaltkreisen wie auch in Materialien abzubilden – daher die Bezeichnung neuromorph. Die dadurch entstehenden Rechner sollen in der Lage sein, ihre Leistung und Aufgaben im laufenden Einsatz entsprechend den Anforderungen anzupassen und zu optimieren und auch solche Problemstellungen lösen können, für die sie ursprünglich nicht programmiert wurden. Sie lernen beständig weiter und besitzen dabei die sogenannte Plastizität eines biologischen Nervensystems. Unter der Plastizität versteht man die Eigenschaft, sich zur Anpassung laufender Prozesse nutzungsabhängig in Aufbau und Funktion zu verändern – also den elektronischen Schaltkreis wenn erforderlich von seinen einzelnen Schaltelementen aus neu auszurichten und aufzubauen.

Ein weiterer Vorteil neuromorpher Rechner besteht in ihrem grundsätzlichen Aufbau. Im menschlichen Gehirn werden Speicherung und Verarbeitung von Information am selben Ort durchgeführt, gleichzeitig und parallel über ein komplexes Netzwerk synaptischer Verbindungen zwischen mehr als hundert Milliarden Neuronen. Dies unterscheidet das Gehirn grundlegend von heutigen Computern. Diese funktionieren nach dem von-Neumann-Prinzip, bei dem die beiden elementaren Funktionen Speichern und Rechnen in getrennten Einheiten durchgeführt werden. Die dabei zusätzlich erforderlichen Verbindungen zwischen Speicher und Recheneinheit schränken die Fähigkeit zur flexiblen Lösung komplexer Probleme ein und verursachen einen enormen Energie- und Materialverbrauch. Neuromorphe Rechnerarchitekturen, wie sie durch die Dresdner Entdeckung ermöglicht werden, zielen hingegen darauf ab, deutlich über von-Neumann-Rechner hinauszugehen. Sie verbinden Speicherung und Verarbeitung von Informationen innerhalb einer lernfähigen funktionalen Einheit – im konkreten Fall einem aufwändig konstruierten Silizium-Nanodraht-Transistor mit einer Sol-Gel-Beschichtung, die für die Plastizität nach dem Vorbild der Neuronen sorgt. Damit können leistungsstarke, schnelle und flexible, vom Gehirn inspirierte Algorithmen, wie sie z.B. für die Künstliche Intelligenz benötigt werden, auf Hardware-Ebene ausgeführt werden.

Literatur

Eunhye Baek, Nikhil Ranjan Das, Carlo Vittorio Cannistraci, Taiuk Rim, Gilbert Santiago Cañón Bermúdez, Khrystyna Nych, Hyeonsu Cho, Kihyun Kim, Chang-Ki Baek, Denys Makarov, Ronald Tetzlaff, Leon Chua, Larysa Baraban & Gianaurelio Cuniberti (2020). Intrinsic plasticity of silicon nanowire neurotransistors for dynamic memory and learning functions. Nature Electronics, doi:10.1038/s41928-020-0412-1.