Neuromorphe Computer: Schneller und effizienter rechnen mit Licht

Ein allwissendes Orakel, das auf alle sachlichen Fragen eine Antwort hat und verlässliche Vorhersagen trifft: Dieser Traum der alten Griechen scheint dank der rasanten Entwicklung von künstlicher Intelligenz (KI) Wirklichkeit zu werden. Spätestens seit Sprachassistenten wie ChatGPT von OpenAI, Bing von Microsoft oder Gemini von Google der breiten Öffentlichkeit zugänglich gemacht wurden, ist die disruptive Wirkung von KI für unsere Gesellschaft, unsere Arbeitsweise und unser Leben zunehmend spürbar. Ein erwiesener Nachteil dieser Technologie ist allerdings, dass sie enorme Mengen an Energie und Kühlwasser benötigt und inzwischen einen messbaren ökologischen Fingerabdruck hinterlässt. Deshalb forschen Wissenschaftler auf der ganzen Welt interdisziplinär daran, völlig neue, aus optischen Elementen bestehende Computerhardware zu entwickeln, die sich mehr an dem mächtigen und hocheffizienten biologischen Vorbild der KI orientiert: dem Gehirn.
KI basiert meist auf künstlichen neuronalen Netzwerken (KNN), die schon heute in vielen Bereichen unseres täglichen Lebens zum Einsatz kommen (siehe »Künstliches neuronales Netz«). So nutzen Sprachassistenten wie Alexa oder Siri KNNs, um uns zu verstehen und unsere Fragen zu beantworten; Streaming-Dienste wie Netflix und Spotify verwenden spezielle Algorithmen, um uns auf unsere individuellen Vorlieben zugeschnittene Empfehlungen zu geben. Mächtig sind solche neuronalen Netzwerke vor allem, weil sie aus Daten lernen und darin komplexe Muster erkennen können. Auf diese Weise erledigen Computer mittlerweile sogar Aufgaben, die früher als unmöglich galten: Selbstfahrende Autos analysieren und verarbeiten multidimensionale Straßenszenarien; Sprachmodelle wie ChatGPT verstehen und befolgen komplexe Aussagen; und Grafikgeneratoren wie Stable Diffusion erzeugen und verfeinern hochrealistische Bilder und Videos.
Der Nutzen von KI für die Allgemeinheit ist groß, ihr Einsatz birgt jedoch enorme technologische Herausforderungen. Neuronale Netzwerke lassen sich nicht effizient mit herkömmlichen Computerprozessoren abbilden, die derzeit das Herzstück von Laptops und Supercomputern sind. Bei der klassischen, bereits 1945 von John von Neumann eingeführten Rechnerarchitektur (siehe »Vergleich Rechnerarchitektur«) sind Datenspeicher und Recheneinheit voneinander separiert. Sie arbeitet im Kern seriell und digital. Neuronale Netzwerke hingegen speichern Erlerntes innerhalb ihrer Rechenstruktur; sie arbeiten damit hochgradig parallel und analog, und sie kennen mehr Zwischenzustände als nur 0 und 1. Die stete Umwandlung analoger Modellparameter in digitale Bits benötigt viel Energie und führt zu Ungenauigkeiten, Verzögerungen sowie Speicherproblemen. So reicht die Energie, die fortschrittliche Modelle für die Erzeugung eines einzelnen Bilds benötigen, aus, um ein typisches Smartphone vollständig aufzuladen.
Die beschriebenen Probleme zeigen sich besonders drastisch bei heutigen Großanwendungen. Sprachmodelle wie ChatGPT und Gemini laufen auf Supercomputern, die riesige Fabrikhallen mit zehn- bis hunderttausenden Servern ausfüllen und insgesamt Millionen von Rechenkernen kombinieren. Der enorme Energieaufwand, der mit dem Training solcher Modelle einhergeht, sowie der Kühlwasserverbrauch spiegeln sich deutlich in den milliardenhohen Ausgaben der Unternehmen wider.
Laut einem Bericht der Internationalen Energieagentur (IEA) wird der Energiebedarf von Datencentern in Zukunft noch erheblich steigen, da die Nutzung von KI-Anwendungen und Kryptowährungen stetig zunimmt. Datencenter könnten demnach bis zum Jahr 2026 mehr als 1000 Terawattstunden Strom benötigen. Das entspricht etwa dem Bedarf von Japan. Damit steht künstliche Intelligenz vor dem Dilemma, einerseits Probleme in der aktuellen Energie- und Klimakrise lösen zu können, andererseits diese Krisen noch zu verschärfen.
Ein Weg aus diesem Dilemma ist die Entwicklung neuromorpher Hardware, die sich an der Funktionsweise eines biologischen Gehirns orientiert. Der Begriff neuromorph bedeutet, dass die Rechnerarchitektur die Struktur und Vernetzung von Nervenzellen, fachsprachlich Neurone, nachahmt. Computeringenieure für neuromorphe Hardware arbeiten heute daran, die Grundfunktionen von Nervenzellen mit analoger Elektronik, optischen Schaltkreisen oder synthetischen Materialien nachzubilden. Derartige biologisch inspirierte Hardware kann die Ineffizienzen herkömmlicher Computerarchitekturen überwinden: Speicher und Recheneinheiten werden vereinigt und Berechnungen unmittelbar analog statt digital durchgeführt. Der Informationsfluss lässt sich an die parallelen Strukturen neuronaler Netze anpassen. Diese so genannten In-Memory-Architekturen versprechen damit einen deutlich geringeren Energieverbrauch, höhere Rechengeschwindigkeiten und weit reichende Möglichkeiten bei der Simulation bioähnlicher neuronaler Aktivität.
Licht als Speicher und Informationsträger
Ein sehr viel versprechender Ansatz für neuromorphes Rechnen sind optische Prozessoren. An Stelle von transistorbasierten Schaltkreisen und elektrischen Strömen nutzen sie Optiken und Licht als Speicher und Informationsträger. Im ersten Moment mag es unkonventionell wirken, Licht, das heißt elektromagnetische Strahlung, als Medium zu nutzen. Doch auch der durchschnittliche Mensch empfängt den Großteil der Informationen darüber. Das Rezeptorsystem im menschlichen Auge nimmt visuelle Reize auf und wandelt sie in elektrochemische Impulse um, die Nervenzellen dann an das Gehirn weiterleiten. Diese Signale werden im visuellen Kortex – einem hoch spezialisierten neuronalen Cluster im hinteren Teil des Gehirns – erfasst und mit Kontextinformationen aus anderen Arealen verknüpft.
Im Zusammenspiel mit weiteren Sinneswahrnehmungen ermöglicht uns der Sehsinn, durch die komplexe Umwelt zu navigieren und über Schrift, Mimik und Gestik zu kommunizieren und zu lernen. Das schafft unser Gehirn mit Milliarden von Neuronen und verbraucht dabei nur schätzungsweise 20 Watt. Das entspricht etwa dem Verbrauch von zwei bis drei handelsüblichen LED-Lampen oder einem Zehntel der Leistung einer handelsüblichen Grafikkarte. Mit dieser lassen sich jedoch nur wenige tausend künstliche Neurone simulieren. Das menschliche Gehirn ist damit einer der energieeffizientesten Allzweck-Großrechner der Welt.
Licht ist ein gutes Medium für neuromorphes Rechnen, denn es kann Informationen auf wesentlich vielfältigere Weise übermitteln als Ströme in elektrischen Schaltkreisen. Es kann aus vielen Elementarwellen bestehen, so genannten Lichtmoden. Sie bieten deutlich mehr Freiheitsgrade als Ströme, um Informationen zu speichern und parallel zu verarbeiten.
Licht ist ein gutes Medium für neuromorphes Rechnen, denn es kann Informationen auf wesentlich vielfältigere Weise übermitteln als Ströme in elektrischen Schaltkreisen
Lichtmoden unterscheiden sich hinsichtlich diverser Eigenschaften, darunter Wellenlänge, Polarisation sowie die zeitliche und räumliche Feldverteilung – und lassen sich obendrein miteinander kombinieren. Hinzu kommt, dass jede Lichtmode komplexwertig ist und über Amplituden- und Phaseninformation verfügt. Das bedeutet, einzelne Lichtwellen können Daten nicht nur in der Höhe der Wellenberge (Amplitude) speichern, sondern auch in der Phasenverschiebung, das heißt im relativen Versatz einer Welle zu einer anderen. All das spannt einen hochdimensionalen Informationsraum auf, der weit mehr Speicherkapazität bietet als elektronische Signale. Dieser ist in der aktuellen technischen Praxis jedoch noch nicht voll zugänglich. Bei Experimenten nutzt man selten mehr als zwei Freiheitsgrade.
Das Besondere ist nun: Allein die Ausbreitung optischer Wellen kann viele der elementaren mathematischen Rechenoperationen von künstlichen neuronalen Netzwerken ganz natürlich ausführen – ohne weiteren Energieaufwand und in Lichtgeschwindigkeit. Zu diesen energetisch nahezu kostenlosen Vorgängen gehört es beispielsweise, ein Bild mittels einer Linse in einzelne Frequenzen zu zerlegen. Solche Fourier-Transformationen sind eine der Kernoperationen, die heute mit großem Energieaufwand auf Grafikprozessoren ausgeführt werden, etwa zur Bildbearbeitung. Zudem lassen sich mittels Beugung von Lichtwellen an Objekten komplexe Matrixmultiplikationen durchführen. Die Objekte übertragen ihre analoge Information blitzschnell in die Phasen oder Amplituden des Lichtfelds. Photodetektoren summieren diese Werte dann über längere Zeit auf und berechnen damit ein Matrixprodukt aus Eingangsfeld und Objekt.
Optisches Rechnen ermöglicht es damit, zahlreiche elementare lineare Operationen, wie etwa die Addition und Multiplikation von analogen Werten, in neuronalen Netzwerken zu übernehmen. Die in Licht gespeicherten Informationen sind zudem hochgradig parallelisierbar und können gleichzeitig für verschiedene Berechnungen verwendet werden. Das reduziert den Energiebedarf erheblich. Während elektronische Systeme typischerweise einige Pikojoule (ein Billionstel der Standard-Energieeinheit Joule) pro Operation benötigen, reichen in der optischen Informationsverarbeitung wenige Femtojoule (ein billiardstel Joule) aus. Dieser 1000-fache Energievorteil ist die Hauptmotivation, optische neuronale Netzwerke zu entwickeln. Vor allem in groß angelegten KI-Rechenclustern machen umfangreiche Fourier-Transformationen und Matrixprodukte den Großteil der Operationen aus. Dort träte dieser Vorteil deutlich zu Tage.
Meine Arbeitsgruppe profitiert heute von Jahrzehnten der optischen Technologieentwicklung. Es gibt inzwischen räumliche Lichtmodulatoren, Mikrospiegelmatrizen mit zehntausenden frei programmierbaren Elementen sowie hochgradig integrierte, kompakte optische Schaltkreise auf photonischen Chips. Insbesondere Glasfasern und Wellenleiter bieten die Möglichkeit, die Anzahl und Eigenschaften der Lichtmoden in einem System präzise zu führen und zu kontrollieren. All das sind gute Grundlagen für skalierbare und integrierbare optische Prozessorplattformen in der Informationsverarbeitung. Sie würden sich nahtlos in bestehende Infrastrukturen wie Kamerasysteme oder Fasertelekommunikationssysteme einfügen lassen.
Zwei Ansätze, Neurone nachzuahmen
Grundsätzlich lassen sich optische neuronale Netzwerke auf zwei Weisen konstruieren: bottom-up und top-down. Top-down-Ansätze nutzen die oben beschriebenen optischen Phänomene, um die Funktionsweise einzelner Neurone nachzuahmen. Sie werden dann Element um Element individuell implementiert und zu physikalischen Netzwerken zusammengesetzt. Ein ausgesprochen elegantes Beispiel demonstrierte Dimitri Psaltis, emeritierter Professor an der École Polytechnique Fédérale de Lausanne in der Schweiz, und Kollegen im Jahr 1985. Sie nutzten LED-Zeilen als Lichtquellen, von denen aus sich optische Signale durch einen Amplitudenfilter ausbreiteten. Dabei nahmen sie dessen gespeicherte Informationen auf. Anschließend wurden die verarbeiteten Signale von Detektorreihen erfasst und elektrisch zu den LED-Zeilen zurückgeführt. Diese Rückkopplung imitierte die Grundfunktion von assoziativen neuronalen Schichten. Dadurch konnte das System Aufgaben wie Mustervervollständigung und Fehlerkorrektur durchführen. Die Arbeiten von Psaltis basieren auf einem Vorschlag von John Hopfield, der für seine Pionierarbeit an Assoziativen Neuronalen Netzen wiederum den Nobelpreis für Physik 2024 zugesprochen bekommen hat.
Diese frühen Ansätze haben sich mittlerweile zu chipintegrierten, photonischen »Tensorkernen« weiterentwickelt, das heißt hoch spezialisierten Recheneinheiten für Matrixmultiplikationen. Ihnen widmet sich unter anderem die Gruppe um Wolfram Pernice an der Universität Heidelberg. Statt raumgreifende Amplitudenmasken einzusetzen, um die Eingangssignale zu gewichten, werden hier mikrometergroße Lichtwellenleiter genutzt. Sie sind in ihrer Lichtdurchlässigkeit einstellbar. Solche photonischen Tensorkerne ermöglichen schnelle und effiziente Berechnungen von Matrix-Vektor-Produkten auf zentimetergroßen Chips. Das ist die Basis für die Vernetzung von künstlichen Neuronen.
Nichtlineare Aktivierungen von Neuronen technisch nachzuahmen, stellt eine große Herausforderung für optische Systeme dar
Eine weitere Grundfunktion von Neuronen technisch nachzuahmen, stellt jedoch eine große Herausforderung für optische Systeme dar: so genannte nicht lineare Aktivierungen. Diese finden nur dann statt, wenn Signale zur genau passenden Zeit und aus der richtigen Quelle zusammenkommen und damit ein Signal an die nachfolgenden Neurone schalten. Solche nichtlinearen Prozesse sind das buchstäbliche Klicken von Synapsen. Sie sind entscheidend, um räumliche und zeitliche Beziehungen in Daten herzustellen und komplizierte Muster oder Abhängigkeiten zu erkennen und vorherzusagen.
In optischen Systemen kommen Nichtlinearitäten von Natur aus vor. Unter optischer Nichtlinearität versteht man, dass der Brechungsindex davon abhängt, wie viel Licht auf einem Punkt zusammenfließt. Man kann sich eine Glasscheibe vorstellen, die bei wenig Sonnenschein durchsichtig ist, bei viel davon jedoch wie eine Lupe wirkt und die Sonne bündelt. Diese durch das Licht selbst ausgelöste Brechungsänderung heißt Kerr-Effekt und kann als optische Synapse dienen. Sie zu schalten, benötigt jedoch viel Energie sowie spezielle Laserquellen. Daher kommen stattdessen elektronische Komponenten zum Einsatz. Doch sie heben einen Großteil der Vorteile von Licht als Informationsmedium auf und verhindern es, mehrschichtige und damit leistungsfähige optische Netzwerke zu realisieren.
Diese Hürde können wir möglicherweise mit dem zweiten Ansatz überwinden: Bottom-up-Verfahren orientieren sich an den physikalischen Rechenregeln eines optischen Systems auf fundamentaler Ebene. Das soll die natürlichen Vorteile von Licht bestmöglich nutzbar machen. Der Grundgedanke kam erstmals in den 1990er Jahren in den Neurowissenschaften auf, wurde aber erst in den frühen 2000er Jahren von Herbert Jaeger im Kontext des maschinellen Lernens in die Computerwissenschaften übertragen.
Ein prominentes Beispiel ist das so genannte Reservoir Computing. Dabei handelt es sich um einen Rechenansatz, der die Dynamik eines unkontrollierten, nichtlinearen Systems – eines Reservoirs – nutzt, um Datenmuster leichter unterscheidbar und analysierbar zu machen. Das Reservoir ist ein Netzwerk aus zufällig verbundenen Neuronen. Jeder neuronale Knoten kann auf sich oder andere Knoten zurückwirken. Damit baut der Ansatz auf Kernaspekten der neuronalen Speichernetzwerke von John Hopfield auf. Die Grundidee besteht darin, die innere neuronale Struktur des Reservoirs zufällig zu wählen und während des Trainings unverändert zu lassen. Dadurch entsteht eine Black Box. Das ist anders als bei typischen KNNs, wo die innere Struktur für jede Aufgabe durch das Training angepasst wird. Eine Lern- oder Vorhersageaufgabe, wie beispielsweise die Erkennung von Sprache, wird nun gelöst, indem die Black Box das Sprachsignal aufnimmt, mischt und in Form eines charakteristischen Antwortsignals reagiert. Dieses macht dann eine leicht zu erlernende Systemauslese interpretierbar (siehe »Reservoir Computing«).
Ein einfaches Beispiel für ein physikalisches Reservoir ist ein Gefäß mit Wasser. Die innere Struktur – also die Zahl und Form der möglichen stehenden Wellen – ist durch die Form des Gefäßes und die Wassermenge fest vorgegeben und wird nicht verändert. Wenn nun ein Stein ins Wasser fällt, entstehen charakteristische Wellenmuster. Diese ergeben sich aus der Überlagerung der Wellen, die beim Aufprall des Steins entstehen, und den von den Gefäßwänden reflektierten Wellen früherer Bewegungen. Die Position der Wellenberge und -täler ist damit einzigartig für den Zeitpunkt, die Stelle und die Art des Steinwurfs.
Genauso funktioniert das Reservoir, wenn es beispielsweise ein gesprochenes Wort als Eingangssignal empfängt: Das Wort erzeugt ein charakteristisches Muster, das ausgelesen und einer bestimmten Bedeutung oder einer Person zugerechnet werden kann. Das System lernt dann, diese Muster zu interpretieren und entsprechend zuzuordnen – so wie man aus den Wellenmustern im Gefäß mit der Zeit lernen kann, ob ein runder oder ein eckiger Stein geworfen wurde.
Der Ansatz des Reservoir Computing
Ein großer Vorteil dieses Ansatzes liegt in seiner einfachen Trainingsmethode. Bleiben wir beim Beispiel mit dem Wassergefäß: Statt das gesamte System umzubauen, also die Form des Behältnisses oder die Wassermenge zu ändern, müssen wir nur lernen, die Wellenmuster richtig zu deuten. Das geschieht mit einer Art Übersetzungstabelle, die den beobachteten Mustern bestimmte Bedeutungen zuordnet. Diese Tabelle ist wie ein Lexikon, das die Sprache der Wellen in verständliche Vorhersagen übersetzt. Das ist viel einfacher und schneller, als wenn das ganze System von innen heraus neu eingestellt werden müsste – wie bei klassischen neuronalen Netzen. Ein weiterer praktischer Vorteil: Man kann zunächst viele verschiedene Steine ins Wasser werfen, die entstehenden Wellenmuster aufzeichnen und die Übersetzungstabelle anschließend in Ruhe erstellen. Das System selbst muss dafür nicht mehr aktiv sein. Das spart zusätzlich Energie im Vergleich zum Training konventioneller KNN. Zudem können mit demselben Datensatz mehrere Übersetzungstabellen erstellt werden. So kann eine zum Beispiel die Größe der Steine auswerten, eine andere den jeweiligen Zeitpunkt des Aufpralls und eine dritte das Material.
Physikalische Systeme bieten eine gute Umgebung für Reservoir Computing, da die innere Struktur nicht mit technischen Bauteilen erst umständlich erschaffen werden muss. Sie existiert bereits in Form von Systemzuständen, etwa Wellenmoden. Der Ansatz besticht besonders dadurch, dass hochgradig dynamische, natürlich vorkommende Wellenphänomene nutzbar gemacht werden können – sowohl klassischer als auch quantenmechanischer Natur. Dieser Vorteil hat jedoch einen Preis: Die stark miteinander wechselwirkenden Wellenzustände machen es schwierig, die einzelnen Neurone und ihre Funktionen im System zu identifizieren. Deshalb lässt sich die Netzwerkstruktur kaum noch im Detail rekonstruieren. Damit sind Bottom-up-Konzepte oftmals abstrakt und stehen im grundlegenden Kontrast zu den wohldefinierten Netzwerkstrukturen der Top-down-Ansätze. Dennoch sind physikalische und vor allem optische Reservoirs beeindruckend leistungsfähig.
Im Oktober 2023 haben wir das gezeigt, indem wir einen Reservoir-Computer konstruiert haben, der aus einer einzelnen Glasfaser bestand. Ähnlich wie beim Wassergefäß, in dem Wellen sich überlagern, nutzt der optische Prozessor die natürliche Vermischung von Lichtwellen in der Faser als Grundlage für neuromorphes Rechnen.
Die Funktionsweise basiert darauf, Daten auf die verschiedenen beschreibbaren Frequenzbereiche von ultrakurzen Lichtpulsen aufzubringen und zu mischen
Die Funktionsweise basiert darauf, Daten, etwa einzelne Pixelwerte aus Bildern oder Frequenzkomponenten einer Audiospur, auf die verschiedenen beschreibbaren Frequenzbereiche von ultrakurzen Lichtpulsen aufzubringen und zu mischen (siehe »Optische Faser«). Diese Pulse sind nur einige Femtosekunden lang. Sie bestehen jedoch aus Zehntausenden von Frequenzen, die wir bisher nur gruppenweise mit Informationen versehen können. Einmal beschrieben, tragen diese Lichtpulse die Informationen durch die Glasfaser, das Reservoir. In der Faser geschieht dann etwas Besonderes: Die Lichtwellen beeinflussen sich gegenseitig auf nichtlineare Weise. Das bedeutet, sie vermischen sich nicht einfach wie Wasserfarben, sondern erzeugen dabei sogar neue Farben. Dieser nichtlineare Wellenmischprozess ist eine direkte Folge des optischen Kerr-Effekts. In unserem System ist der Prozess derart effizient, dass aus dem ursprünglich begrenzten Frequenzspektrum ein so genanntes Superkontinuum entsteht, das zehnmal breiter und kontinuierlich ist.
Die Frequenzzusammensetzung des Superkontinuums am Ende der Faser ist für jeden Datensatz einzigartig. Sie ist damit ein eindeutiger, spektraler Fingerabdruck der ursprünglichen Information, ähnlich dem charakteristischen Wellenmuster im Beispiel des Wasserbads. Ein computerbasierter Suchalgorithmus identifiziert die relevantesten Frequenzkanäle dieses Fingerabdrucks. Sie dienen als Grundlage für die Übersetzungstabelle. Das ermöglicht Aussagen über die verarbeiteten Daten.
Man kann sich vereinfacht vorstellen, dass beispielsweise der Zahlenwert eines Bildpixels in der Helligkeit einer Grundfarbe codiert wird. Je nach Bild erhielte man dann etwas mehr Rot oder etwas weniger Blau. In der Faser mischen sich diese Grundfarben nun miteinander zu allen Farben des Regenbogens. Der Tonwert der neu generierten Farben ist ein Ergebnis der Grundfarben und erlaubt dadurch eine Aussage darüber, was das Fasersystem auf diesem Bild »gesehen« hat.
Wir haben anhand mehrerer Testaufgaben – so genannter Benchmarks – gezeigt, dass unser Reservoir-Computer eine Vielzahl verschiedener Aufgaben lösen kann. So zeigen manche Farbkanäle an, welche Objekte auf Bildern abgebildet sind. Andere erkennen handgeschriebene Ziffern mit einer Treffsicherheit von knapp 87 Prozent. Zum Vergleich: Menschen erreichen in einer solchen Aufgabe im Schnitt 88 Prozent. Ebenfalls kann unser System diagnostizieren, ob ein Patient Anzeichen einer Covid-19-Infektion in der Stimme trägt oder nicht. Dabei erreichte der faserbasierte Prozessor eine Genauigkeit von 77 Prozent und übertraf damit die bisher besten digitalen Klassifizierungssysteme (73 Prozent). Dies demonstriert einen entscheidenden Vorteil des Reservoir Computing: Effizientes Training der Ausgangsmuster von ein und demselben komplexen System ermöglicht eine universelle Anwendung auf eine Vielzahl von Aufgaben.
Die faserbasierte Datenauswertung hat noch eine weitere Besonderheit: Der faseroptische Prozessor benötigt nur sehr wenig Energie. Er ist somit eine mögliche Plattform für künftiges energieeffizientes Computing. Während problemspezifische KNN-Algorithmen auf herkömmlichen Grafikkarten je nach Aufgabe zwischen 1 und 160 Nanojoule Energie pro Datensatz benötigen, braucht das faseroptische System perspektivisch lediglich 90 Pikojoule, um einen datenbeladenen Lichtpuls zu verarbeiten. Diese 100-fache Steigerung der Energieeffizienz ist zwar bisher bloß theoretisch. Sie ließe sich praktisch jedoch mit Hilfe computerloser, vollständig optischer Informationsschnittstellen umsetzen. Daran forschen wir in der Arbeitsgruppe.
Das überrascht besonders, wenn man bedenkt, dass das System den Kerr-Effekt als Grundlage des Wellenmischens nutzt. Dieser gilt üblicherweise als sehr energieintensiv. Der Trick liegt darin, dass wir den Effekt nicht an vielen verschiedenen Stellen einzeln erzeugen müssen. In unserer Faser tritt er einmal und durchgängig auf und aktiviert dabei zahlreiche virtuelle Moden gleichzeitig. So kann eine einzige Glasfaser die Arbeit leisten, für die sonst ein ganzes neuronales Netzwerk nötig wäre.
Verstärkt man die Lichtintensität in der Faser, fördert das die nichtlineare Wellenkopplung und sorgt damit für eine bessere Verknüpfung der Informationen
So ist die optische Nichtlinearität natürlich und effizient eingebunden. Das ermöglicht außerdem eine höhere rechnerische Genauigkeit innerhalb desselben Wellenleiters. Dazu wären normalerweise zusätzliche neuronale Recheneinheiten erforderlich. Verstärkt man die Lichtintensität in der Faser, fördert das die nichtlineare Wellenkopplung und verknüpft damit die Informationen besser. Dies könnte zu einem Paradigmenwechsel im neuromorphen Hardwaredesign führen: Statt die Hardware physikalisch zu erweitern, kann die Rechenleistung der einzelnen Einheiten selbst gesteigert werden, etwa durch eine höhere Modenzahl oder eine stärkere Nichtlinearität.
Der elektrooptische Flaschenhals
Trotz ihrer beeindruckenden Vorteile stehen optische neuronale Netzwerke noch vor erheblichen Herausforderungen. Ein zentrales Problem ist der elektrooptische Flaschenhals: Elektrische Signale in Lichtsignale umzuwandeln und umgekehrt verursacht erhebliche Geschwindigkeitseinbußen und Effizienzverluste. Dieser Prozess ist energieintensiv, langsam und technisch anspruchsvoll. Das kann die Gesamtleistung beeinträchtigen. Ein weiteres Hindernis ist es, die optischen Systeme möglichst flexibel und anpassungsfähig zu machen. Sie müssen für unterschiedliche Anwendungen programmierbar und rekonfigurierbar sein. Das erfordert anspruchsvolle Hardwarelösungen. Elektronische neuronale Netze können zudem durch Miniaturisierung von Transistoren skaliert werden. Unterdessen ist die Integration photonischer und elektronischer Komponenten auf einem Chip weitaus komplexer und großflächiger und erfordert damit völlig neue Ideen.
Dennoch bieten optische neuronale Netzwerke immense Chancen. Große Unternehmen wie Microsoft erwägen, die optische Informationsverarbeitung in ihren Serverclustern einzusetzen, da die Kommunikation zwischen den Clusterschränken ohnehin bereits mittels Glasfasern erfolgt. Das könnte die Effizienz und Geschwindigkeit der Datenverarbeitung in Rechenzentren revolutionieren. Auch Start-ups wie Akhetonics in Deutschland und Lightmatter in den USA treiben die Entwicklung voran. Akhetonics konstruiert rein optische, universelle Prozessoren mit hoher Energieeffizienz und Leistung, während Lightmatter hybride photonisch-elektronische Chiparchitekturen speziell für KI-Anwendungen optimiert.
Damit steht eine konkrete Vision für die Zukunft von KI. Die optische Informationsverarbeitung könnte die Art und Weise, wie wir Daten verarbeiten und nutzen, grundlegend verändern und eine nachhaltigere Technologieentwicklung fördern. Und wer weiß: Vielleicht gleicht das Orakel des Informationszeitalters eher einem farbenfrohen, lichtdurchströmten Glasgebilde statt den in kryptischen Versen sprechenden Priesterinnen der griechischen Antike.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.