- /
- /
Neue Computerchips, die ähnlich wie das Gehirn arbeiten, sollen KI radikal energieeffizienter machen
Neue Computer nach dem Vorbild des Gehirns sollen KI viel energieeffizienter machen
KI soll immer mehr mit der Alltagstechnik verschmelzen, etwa mit autonomen Autos, Küchengeräten oder Drohnen. Doch mit dem hohen Energieverbrauch heutiger KI ist das nicht möglich. Forscher bauen deshalb ganz neue Computerchips, die sich an der Faulheit des Gehirns orientieren.
Dieser Artikel ist zuerst in der Neuen Zürcher Zeitung erschienen
Eine bescheidene Tafel am Physik-Gebäude der Technischen Universität Dresden weist auf die Maschine hin, die die künstliche Intelligenz aus der Sackgasse bringen soll. Christian Mayr führt durch eine unscheinbare Nebentür in den Bau. Hinter einer weiteren Tür wartet ein halbdunkler Saal. Darin leuchten und blinken Displays. Sie hängen an mannshohen Kästen, deren Halbrund an die Brücke eines Raumschiffs erinnert.
Hier stellt Mayrs Team den Supercomputer „Spinnaker2“ auf. „Wir bauen hier selbst entwickelte Chips ein“, sagt der Elektrotechniker. Da sie Arbeitsweisen des menschlichen Gehirns imitieren, sollen die neuen Chips wesentlich effizienter arbeiten als derzeitige KI: mehr Rechenkraft bei einem Bruchteil des Energieverbrauchs.
Für den Betrieb braucht ChatGPT so viel Strom wie eine mittlere Stadt
Aktuelle KI, etwa der Sprachroboter „ChatGPT“, erkauft ihre spektakulären Erfolge mit einem enormen Energieaufwand. Um weitere Fortschritte zu machen, könnte noch viel mehr Rechenleistung nötig werden. Forscher suchen deshalb dringend Methoden, wie sich diese mit viel weniger Energieeinsatz erzielen lässt. Einige von ihnen lassen sich direkt vom menschlichen Gehirn inspirieren, denn dieses braucht für seine Leistungen nur etwa so viel Energie wie eine Glühbirne.
Verglichen damit verbrät KI Unmengen an Strom. So fraß das Sprachmodell GPT-3 der kalifornischen Firma OpenAI, auf dem ChatGPT basiert, für sein Training fast 1300 Megawattstunden elektrische Energie, schätzen Forscher von Google und der University of California in Berkeley in einer nicht von Fachkollegen begutachteten Arbeit auf dem Preprint-Server Arxiv.
Das entspricht dem jährlichen Stromverbrauch von etwa 500 durchschnittlichen deutschen Zwei-Personen-Haushalten. Für den Betrieb selbst, also das Beantworten von mehreren Milliarden Anfragen pro Jahr, braucht ChatGPT laut groben Schätzungen von Wissenschaftlern sogar mehr als das hundertfache dieser Energiemenge, also etwa so viel wie eine mittelgroße Stadt.
Umständliche Arbeitsweise des klassischen Computers
Und das, obwohl heutige KI durchaus eine gewisse Ähnlichkeit mit dem Gehirn hat. Bei der meistbenutzten KI-Methode „Deep Learning“ simulieren Computer stark vereinfacht die kleinsten Bausteine des Gehirns: die Neuronen samt den winzigen Verbindungen zwischen ihnen, den Synapsen.
Doch um Energie zu sparen, genügt es nicht, ein neuronales Netz auf einer Hardware zu simulieren, die für sehr verschiedene Anwendungen konzipiert ist. Die Arbeitsweise der Elektronik weicht zu sehr von der des Denkorgans ab.
Was im Computer vor allem Energie frisst, ist das Hin- und Herbewegen enormer Datenmengen. Ständig fließt Information vom Speicher zum Prozessor, um dort verarbeitet zu werden, und wieder zurück. In Großrechnern strömen Daten zudem zwischen den vielen einzelnen Rechnern, aus denen er sich zusammensetzt.
Nervenzellen erfüllen Doppelfunktion
Ganz anders im Gehirn. Jedes einzelne Neuron ist zugleich Speicher und Prozessor. Es verarbeitet die Informationen, die es von anderen Neuronen erhält. Wie es das tut, kann sich durch Lernen verändern. Diese Änderung speichert das Neuron selbst, etwa indem es die Größe seiner Synapsen modifiziert. Dazu kommt, dass das Gehirn ganz generell sparsam mit Information umgeht: Neuronen werden nur aktiv, wenn unbedingt nötig. Nur ein kleiner Teil von ihnen ist jeweils aktiv, je nach Aufgabe. Diese „Faulheit“ des Denkorgans macht sich Christian Mayr bei Spinnaker2 zunutze.
Dem menschlichen Auge nachempfunden
„Das Gehirn verarbeitet nur relevante Informationen“, erklärt Mayr. Der Rest werde entfernt. Die Netzhaut etwa filtert den größten Teil der ins Auge gelangenden Informationen heraus. Bei Daten von Videokameras sei das auch möglich, sagt Mayr. Statt jedes Pixel jedes Einzelbildes zu verarbeiten, wie es aktuelle KI mache, reiche es, nur die wenigen Pixel zu untersuchen, die sich von einem Bild zum nächsten verändert haben, also etwa nicht das Möbel im Hintergrund.
Die Chips, die Mayrs Team entwickelt hat, imitieren die Neigung des Gehirns, möglichst wenig zu tun: Die virtuellen Neuronen werden nur aktiv, wenn sie ein Signal von anderen Nervenzellen empfangen, was längst nicht immer der Fall ist. Diese Arbeitsweise spare 90 Prozent Energie, verglichen mit heutigen Supercomputern, erklärt Mayr.
Halb so viele „Synapsen“ wie das menschliche Gehirn
Supercomputer sind der Maßstab der Dresdner Forscher, denn Spinnaker2 soll einer werden. Seine 50 000 Chips sollen dank ihrer Energieeffizienz besonders große neuronale Netze simulieren können. Fünfzig Billionen virtuelle Synapsen können es werden, meint Mayr, ein Vielfaches der heute größten neuronalen Netze und etwa halb so viele Synapsen wie im menschlichen Gehirn.
Besonders eigne sich Spinnaker2 für Echtzeit-KI, erklärt Mayr, bei der ständig große Datenmengen hereinkommen und verarbeitet werden müssen. In einer Smart City zum Beispiel erfassen Tausende Sensoren rund um die Uhr den Verkehr, die Luftbelastung oder den Energieverbrauch. „Auch Roboter könnten Spinnaker2-Chips als künstliches Gehirn bekommen“, sagt Mayr.
Die Dresdner Forscher und ein ausgegründetes Startup arbeiten mit potenziellen Anwendern ihres Supercomputers zusammen; darunter das US-amerikanische Pharmaunternehmen Merck, das mit Spinnaker2 die Suche nach Wirkstoffen beschleunigen will.
Energie sparen durch ungenaueres Rechen
Einen anderen Aspekt der sparsamen Datenverarbeitung des Gehirns simuliert Christoph Meinel. Der Informatiker vom Hasso-Plattner-Institut in Potsdam nimmt sich die elektrischen Impulse zum Vorbild, die Neuronen im Gehirn austauschen. „Diese bestehen jeweils nur aus einem Bit Information“, sagt Meinel. Die große Leistung ergibt sich aus der Fülle solcher Signale und der enormen Vernetzung der Neuronen untereinander über rund 100 Billionen Synapsen.
Simulierte Neuronen hingegen tauschen Signale mit der für Computer üblichen Informationsmenge von jeweils 32 Bit aus, was Zahlen mit acht Nachkommastellen entspricht. „Das muss auch weniger aufwendig gehen“, meint Meinel. Sein Team experimentiert mit sogenannten binären neuronalen Netzen, durch die, wie im Hirn, nur ein Bit pro Signal fließt.
„Diese Netze sind tausendmal energieeffizienter“, sagt Meinel. Allerdings zum Preis, dass die Ergebnisse um fünf Prozent ungenauer sind. Für eine KI, die zuverlässig Tumore erkennen soll, wäre das nicht akzeptabel. „Aber bei Anwendungen wie Suchanfragen oder Empfehlungssystemen in Online-Shops spielt dieser geringe Verlust an Präzision keine Rolle“, meint Meinel.
Lässt sich bei Extremwetterprognosen Energie sparen?
Das Potsdamer Team testet, ob die Spartechnik präzise genug für die Vorhersage von Wetterextremen ist. Solche Prognosen machen derzeit Großrechner, die mathematische Wettermodelle berechnen. Trainiert wird die KI mit Satellitendaten aus den letzten 22 Jahren. Per Mustererkennung soll sie drohendes Extremwetter früher erkennen. „Wir erforschen, wie wir eine bestmögliche Balance zwischen Energieverbrauch und Präzision hinbekommen“, sagt Meinel.
Ein weiterer Forschungsansatz besteht darin, Speicher und Prozessor schon in der Hardware zu einer Einheit zu verschmelzen. Dazu experimentieren Forscher mit sogenannten Memristoren. Das sind Bauelemente, deren elektrischer Widerstand von der Menge der elektrischen Ladung abhängt, die in der Vergangenheit durch sie geflossen ist. Ihre Physis „erinnert“ sich also gewissermaßen an Erfahrungen, ähnlich wie Synapsen, die durch Lernvorgänge ihre physische Größe verändern.
Neuartige elektronische Bauteile ahmen Synapsen nach
Ein Team um Abu Sebastian vom IBM-Forschungszentrum in Rüschlikon bei Zürich hat virusgroße Memristoren entwickelt und mehrere Millionen davon auf einem Chip miteinander vernetzt. Der Chip setzt somit ein neuronales Netz, wie es eine KI normalerweise nur virtuell simuliert, als physikalische Schaltung um.
Bei einem Test erkannte und beschriftete der Chip Objekte auf Bildern. Allerdings arbeite er nicht energieeffizienter als die derzeit effizienteste KI, räumt Sebastian ein. „Es ist ein erster Prototyp“, sagt der Physiker. Eine 100-fach bessere Energieeffizienz ist möglich, glaubt er. Indem sie die Memristoren weiter miniaturisieren und die restlichen Komponenten energiesparender machen, wollen die IBM-Forscher dieses Ziel binnen fünf Jahren erreichen.
Der Chip führt einen Algorithmus aus, der zuvor auf einem klassischen Rechner trainiert wurde, erklärt Sebastian. Die fertig entwickelte Variante könnte in mobilen Geräten genutzt werden, wo eine begrenzte Akkuladung nach energiesparender KI verlangt, etwa in autonomen Autos, Drohnen oder Smartphones.
Das Beispiel deutet auf den entscheidenden Vorteil von besonders energieeffizienter KI hin: Sie könnte künstliche Intelligenz aus den aufwändigen Rechenzentren der großen Techunternehmen hinaus in alltägliche, oft akkubetriebene Gebrauchsgegenstände bringen. Ob eine der aktuellen wissenschaftlichen Ansätze diesen Schritt bald ermöglichen wird, muss sich noch zeigen.