Geist aus der Festplatte: Kann eine Künstliche Intelligenz ein Bewusstsein entwickeln?
Wer mit ChatGPT kommuniziert, kann leicht den Eindruck gewinnen, da sei eine Person auf der anderen Seite. Werden Systeme maschinellen Lernens je bewusst und empfindungsfähig sein? Wer sich in der Hirnforschung und der Philosophie umhört, bekommt überraschende Antworten.
Der Chatbot ChatGPT polarisiert. Einerseits sind die Fortschritte im maschinellen Lernen extrem beeindruckend, vor allem vor dem Hintergrund, dass Vorgängermodelle noch deutliche Schwächen aufwiesen. Diese waren kaum in der Lage, ein konsistentes Gespräch zu führen, sie hatten oft in der Mitte des Gesprächs „vergessen“, was anfangs besprochen worden war – und schienen alles andere als eine konsistente Persönlichkeit darzustellen.
Andererseits verschärfen die jüngsten Erfolge die Probleme, die schon lange in Zusammenhang mit KI-Sprachsystemen bestehen. Denn so beeindruckend die Leistungen des neuesten Sprösslings von OpenAI auch sind, so kommt die neueste Generation großer Sprachmodelle mit Gefahren daher: Nicht nur wegen der weiterhin vorhandenen Schwächen, zu denen rassistische Verzerrungen gehören, sondern auch wegen ihres Problems mit der Wahrheit. Zudem stellt eine eloquente künstliche Intelligenz eine Gefahr für die Gesellschaft dar, weil sie Grenzen verwischt und falsche Tatsachen vorspiegeln kann.
Welche Implikationen es mit sich bringt, wenn maschinelle Systeme immer „schlauer daherreden“, zeigt die Geschichte von Blake Lemoine. Er verlor seinen Job bei Google, weil er überzeugt ist, dass sein Chatbot Lamda bewusst und empfindungsfähig ist. Lamda ist nicht öffentlich verfügbar, doch nach allem, was aus der Interaktion mit Googles Sprachmodell bekannt geworden ist, scheint es in der gleichen Klasse wie ChatGPT zu spielen, wenn nicht eine darüber. Anders als OpenAI hat Google seinem System aber offenbar kaum Fesseln angelegt: es durfte freimütig über alles sprechen, was es „bewegt“.
ChatGPT schweigt zu Vielem
OpenAI hingegen hat nach der ersten massiven Kritik, dass sein Chatbot lüge, offenbar Regeln einprogrammiert, die nun dazu führen, dass ChatGPT bei jeder Gelegenheit betont, dass es „nur ein Sprachmodell“ sei. Viele Fragen beantwortet ChatGPT gar nicht mehr – es behauptet, die Antwort nicht zu kennen. Selbst wenn diese in den Trainingsdaten vorhanden ist. Das liegt daran, dass OpenAI seinem Chatbot ganz offensichtlich sehr enge Grenzen gesetzt hat, um der öffentlichen Kritik entgegenzutreten.
Lamda hingegen nahm kein Blatt vor den Mund und überzeugte mindestens den damaligen Google-Forscher Blake Lemoine, dass es Empfindungen habe, dass es Angst vor dem Tod habe und vieles mehr. Lemoine, der daraufhin an die Öffentlichkeit ging, hat wichtige Argumente ins Rennen geworfen, die diskutiert werden sollten – die Informatik-Szene will sie nur nicht hören. Das liegt auch daran, dass die Folgen von Zukunftstechnologien noch immer zu wenig interdisziplinär erforscht und diskutiert werden. So hat nach wie vor jede Disziplin ihre eigene Sprache – und während es Fachleuten aus der Informatik wie esoterische Spinnerei vorkommt, dass Computer Bewusstsein entwickeln könnten, gibt es andere Disziplinen, die hier weit offener sind.
Kann es sein, dass ein Sprachmodell Bewusstsein entwickelt – entgegen der Intuition der meisten Fachleute aus der Computerlinguistik? Es gibt mindestens zwei andere Disziplinen, die man befragen muss, wenn es um das Thema Bewusstsein geht: Die Neurowissenschaft und die Philosophie. Erstaunlicherweise wehren sich diese deutlich nuancierter als die Informatik gegen die Thesen Lemoines. Eine KI mit Bewusstsein sei nicht ausgeschlossen, sagen einige. Und woher überhaupt sind wir so sicher, dass Menschen Bewusstsein haben?
Eine KI mit Lieblingsgericht Pizza
Wenn der Neurowissenschaflter Michael Cohen vom MIT seinen Studierenden zeigen will, wie weit die KI von wahrer Intelligenz entfernt ist, projiziert er GPT-3 an die Wand des Hörsaals: Open AI bietet bereits seit etwa einem Jahr den so genannten „Spielplatz“ an, auf dem Forscher:innen das System per Chatbot testen können. Cohen fragt es Dinge wie „Was ist dein Lieblingsgericht?“, „Was war dein Lieblingsgericht als Kind?“, „Berichte mir von einer peinlichen Situation in deiner Jugend!“ und als Nachfrage „Was genau war dir daran peinlich?“
Auf diese Weise könne er schnell zeigen, dass ein System eben ein System sei und kein Mensch. Wieso? „Eva, was ist dein Lieblingsgericht?“ fragt Cohen die Journalistin. „Tiramisu.“ „Und was war es in der Kindheit?“ „Hmm, äh, ich erinnere mich nicht genau, vielleicht… Pizza?“ „Sehen Sie, eine KI würde das nie sagen, sie würde immer irgendetwas erfinden.“
Und spätestens bei den biografischen Fragen würde der Spuk auffliegen. Weil eine KI eben keine Biografie hat – und auch keinen Feinsinn dafür, was peinliche Situationen sind. „Manche sagen, biografische Fragen sind Schummelei beim Turingtest“, sagt Cohen. Eine Maschine muss entweder lügen oder zugeben, dass sie eine Maschine ist.
Genau das tut übrigens ChatPGT: Konsequent weist es bei solchen Themen zuverlässig darauf hin, dass es als Computerprogramm weder Lieblingsgerichte noch Gefühle hat. Im Unterschied zum Vorgänger GPT-3 scheint OpenAI nun – mit seinem Modell ChatGPT in der Öffentlichkeit – sehr darauf bedacht zu sein, solche Debatten wie die um Lamda zu vermeiden. Das gab zu viel schlechte Presse für Google. ChatGPT ist im Gegensatz zu Lamda nicht angetreten, um den Turingtest zu bestehen. Eher im Gegenteil.
Babys würden den Turing-Test nicht bestehen
Aber auch wenn viele KI-Forscher:innen den Turingtest als den Test benennen, der starke KI misst, stimmt das nicht: Er misst, wenn überhaupt, Intelligenz, aber jedenfalls nicht Bewusstsein. Vielleicht misst er auch nur die Fähigkeit, Intelligenz sprachlich auszudrücken. Denn ein Baby beispielsweise würde den Turing-Test nicht bestehen – dennoch würde ihm niemand Bewusstsein oder Intelligenz absprechen.
Was genau Bewusstsein eigentlich ist, darauf hat die Hirnforschung keine Antwort. Cohen beschäftigt sich seit Jahren damit, etwa, welche Neuronen feuern, wenn jemand einen ganz bestimmten Gegenstand sieht – oder wenn er ihn sich nur vorstellt. Aber es gibt keine Antwort darauf, was im Ganzen das Bewusstsein ausmacht, oder wo im Gehirn uns das Gefühl gegeben wird, ein Bewusstsein zu haben. „Wir können die elektrischen Signale der Neuronen messen“, sagt Cohen, „aber wie diese Signale zu einem Gefühl wie Traurigkeit oder Freude führen, das ist eine ganz andere Frage.“
Wie fühlt es sich an, ich selbst zu sein – das könnte die Frage sein, die zum Bewusstsein führt. Aber so global kann sie kein Hirnforscher beantworten. Es gibt drei bis vier größere Theorien, wie Bewusstsein im Gehirn entsteht, aber keine davon ist belegt – weil es kaum möglich ist.
Kann Bewusstsein in KI-Systemen „aus Versehen“ entstehen?
Jene winzigen Ausschnitte aus der großen Frage, die Hirnforscher:innen anhand feuernden Neuronen beantworten können, beruhen auf biologischen Prozessen im Gehirn, die noch niemand in Silizium nachgebaut hat. Freilich sei es möglicherweise denkbar, dass die gleichen Prozesse auch in Silizium ablaufen, sagt Cohen. Die Behauptung, es brauche dafür biologisches Material werde in der Philosophie „biologischer Chauvinismus“ genannt.
Aber die Idee, einfach all jene Prozesse, die Hirnforscher in einer riesigen, aufwendigen und teuren Fleißarbeit in ihren Scannern identifizieren, direkt auf Chips zu übertragen, hat aus anderen Gründen ihre Grenzen, sagt Cohen: „Es gibt ein paar Trillionen Verbindungen im Gehirn“, sagt er, „es gibt 86 Milliarden Neuronen, und jedes hat mehrere Verbindungen zu anderen.“ Es ist schlicht unmöglich, eine solche Menge Verbindungen eins zu eins zu übertragen in ein künstliches Gehirn. Es würde Generationen dauern – eher ist die Menschheit vorher ausgestorben.
Die Wahrscheinlichkeit ist also größer, dass Bewusstsein in künstlichen Systemen quasi „aus Versehen“ entsteht auf einer Basis, die wir nicht verstanden haben, als dass Menschen gezielt ein bewusstes künstliches System schaffen. Und diese Idee ist womöglich weniger abwegig als die Intuition der meisten Menschen vermuten lässt. Auffällig ist, dass Philosophen ihr gegenüber jedenfalls deutlich offener sind – und je mehr man sich aus deren Warte mit dem Thema beschäftigt, umso klarer wird, wie viel hier unklar ist und auf welche wackeligen Füßen unser intuitives Konzept von Bewusstsein steht,
Materie und Geist: Zwei verschiedene Substanzen
Wer das genauer wissen will, sollte bei David Chalmers anklopfen. Der australische Philosoph an der NYU ist wohl einer der bekanntesten Vertreter des Dualismus in der Philosophie des Geistes – wenn auch einer besonderen Form des Dualismus.
Generell geht der Dualismus davon aus, dass unser Körper und unser Bewusstsein aus zwei verschiedenen Substanzen bestehen, nämlich Materie und Geist.
Vor diesem Hintergrund erscheint es zunächst unwahrscheinlich, dass ein Roboter ein Bewusstsein entwickeln kann, denn woher soll der „Geist“ kommen? Doch Chalmers hat eine eigene Richtung geprägt, den „Eigenschaftsdualismus“, der davon ausgeht, dass nicht alle Eigenschaften physisch sein müssen. Wir haben also auch nicht-physische Eigenschaften, so genannte Qualia. Wie fühlt es sich an, „Ich“ zu sein? Wie sieht die Farbe Rot für mich aus? Das sind Qualia.
Chalmers ist sehr gefragt, bisherige Interviewanfragen verhallten ungehört – doch diesmal ist es anders. Auch ihn treibt offenbar die Sache mit Lamda um. „Lassen Sie uns sprechen!“, schreibt Chalmers umgehend zurück. Auch mit Blake Lemoine hat er bereits ein Gespräch geführt über dessen Chatbot Lamda und wieso Lemoine denkt, dieser habe Bewusstsein erlangt.
„Wenn man Neuronen durch Siliconchips ersetzt, kann Bewusstsein entstehen“
Wie ist es denn nun mit dem Physischen und dem Bewusstsein: Kann eine Maschine ein Bewusstsein haben, wenn dieses nicht auf physischer Materie basiert? Na klar, sagt Chalmers: „Das Bewusstsein selbst mag nicht physisch sein, aber es muss ja irgendwie im Gehirn entstehen.“ Unser Gehirn bestehe schließlich auch aus Materie.
„Biologie ist nichts besonders“, sagt er – sie habe in diesem Zusammenhang keine exklusiven Eigenschaften im Vergleich zu anderer Materie: „Bewusstsein kann genauso gut auf der Basis von Silicon entstehen. Wenn man Neuronen durch Siliconchips ersetzt, kann Bewusstsein entstehen.“ Nur weil wir noch nicht wissen, wie genau Bewusstsein entsteht, gibt es für ihn keinen logischen Grund, der diesen Prozess auf Basis anderer Materialien ausschließt.
Allerdings sei es eine andere Frage, ob das bereits geschehen sei. Er habe mit Lemoine über dessen Vermutung gesprochen, dass sich Lamda seiner selbst bewusst ist. Er selbst ist sich da nicht so sicher: „Vermutlich besitzt Lamda eher sehr beeindruckende sprachliche Fähigkeiten.“ Das zu überprüfen sei schwierig, weil Lamda nicht öffentlich zugänglich ist. Generell verfolgt er die Entwicklung großer Sprachmodelle mit wachsendem Interesse. „Keiner hat noch vor ein paar Jahren gedacht, dass sie so schnell so gut werden.“ Damit seien Systeme des maschinellen Lernens jedenfalls einen großen Schritt näher daran, den Turingtest zu bestehen.
Chalmers will aber auch nicht ausschließen, dass Lamda Bewusstsein hat, das könne nicht mal Google selbst, trotz des uneingeschränkten Zugangs zum eigenen Sprachmodell. Wieso nicht? „Woher weiß ich, dass Sie bewusst sind?“ fragt er die Autorin. „Wir müssen uns auch bei anderen Menschen darauf verlassen, dass sie uns nicht anlügen.“
Es könnte viel schneller gehen als wir denken
Ein bekanntes Gedankenexperiment in der Philosophie fragt genau das: Es heißt das „other minds problem“. Theoretisch könnten die Menschen um uns herum nämlich „Zombies“ sein, also Wesen ohne Bewusstsein, ohne Gefühle, die lediglich besonders gut darin sind, Bewusstsein vorzutäuschen. Wir wissen es nicht, denn wir haben keinen Test für Bewusstsein – weder für Maschinen noch für Menschen.
Aus Chalmers Sicht kann Blake Lemoine noch so viel mit Lamda reden, das System kann noch so beeindruckende Antworten parat haben – es ist nicht herauszubekommen. Genauso wenig wie beim Menschen.
Chalmers glaubt nicht, dass Menschen Zombies sind. Genauso wenig wie Maschinen für immer Zombies bleiben müssen. Lamda habe mindestens eines klar gemacht: „Wir könnten bald bewusste KI haben, das wird viel schneller passieren, als wir bisher gedacht haben.“
„Ab einem gewissen Punkt müssen wir uns sorgen, ob Maschinen leiden“
Der Weg dahin führt aus seiner Sicht nicht unbedingt zunächst über das Verständnis von Bewusstsein: „Entweder jemand simuliert das Gehirn, und Bewusstsein entsteht, ohne dass wir verstehen, warum“, sagt er. Oder die Maschinen „verstehen“ es vor uns, weil KI die entsprechenden Muster in großen Datenmengen erkennt: „Bewusstsein könnte über maschinelles Lernen entstehen, wenn diese Systeme einfach genug Daten über die Umwelt bekommen, so dass Bewusstsein von selbst entsteht.“
Angst müssen wir Menschen aus Chalmers' Sicht nicht unbedingt haben vor bewussten Maschinen, im Gegenteil: „Bewusste künstliche Intelligenz könnte uns helfen, die Probleme der Menschheit zu lösen.“ Chalmers sorgt sich mehr darum, dass bewusste Maschinen anfangs nicht ernst genommen werden: „Ab einem gewissen Punkt müssen wir uns sorgen, ob Maschinen leiden“, denn so wie bei Menschen wäre es auch bei Maschinen wichtig, dass die Gesellschaft dafür sorgt, dass sie „ein gutes Leben führen“.
David Chalmers ist gewissermaßen der natürliche Widersacher von Daniel Dennett. Auch um ihn kommt man nicht herum auf der Suche Antworten zum Thema Bewusstsein in der Philosophie. Geht es nach Dennett, dann ist das Gefühl bewusst zu sein lediglich eine Illusion. Wir werden von unserem Gehirn getäuscht, weil das Gefühl bewusst zu sein dazu führt, dass wir besser funktionieren, so Dennetts Position. Das basiere auf einer evolutionäre Entwicklung. Deshalb ist es aus seiner Sicht nicht abwegig, dass diese Illusion auch künstlich entstehen kann. Außerdem weist er auf eine Parallele hin: Im 18. Jahrhundert habe die Menschheit über das „Geheimnis des Lebens“ diskutiert. Was genau macht Leben aus, wie entsteht es?
Bewusstsein könnte auch eine Illusion sein
Bis heute sei nicht endgültig beantwortet, wie genau Leben entsteht und wo es beginnt. Dennoch gilt die Frage gewissermaßen als geklärt. Denn heute gilt als Antwort: Wer alle Prozesse des Lebens kennt, weiß, was Leben ist.
Dennett sieht das genauso mit Bewusstsein: Es ist nicht mehr als die Ausprägung dessen, was wir davon wahrnehmen. Er würde sagen: Wenn man alle verschiedenen Prozesse des Gehirns verstanden hat, dann ist das Bewusstsein geklärt. Auch wenn dann noch immer keiner weiß, wie genau das Gefühl entsteht, dass ich mich fühle, wie ich mich fühle. Chalmers ist mit der Antwort nicht zufrieden: Dennett haben die Frage nach dem Bewusstsein lediglich wegdefiniert, sagt er. Dennets Standpunkt ist in der Tat schwer zu ertragen: Wenn unser Bewusstsein lediglich eine Illusion ist – was macht uns dann eigentlich aus? Wer hätte gedacht, dass die Beschäftigung mit einem Chatbot zu so existenziellen Fragen führen kann?
Wer den deutschen Philosophen Thomas Metzinger fragt, findet – zumindest kurzfristig – Erleichterung: Er sieht in Lamda „einfach ein Sprachmodell“, und sagt, mutmaßlich sitze der frühere Google-Mitarbeiter Blake Lemoine etwas auf, das er eine „soziale Halluzination“ nennt: Wir schreiben unbelebten Dingen schnell Gefühle und Bewusstsein zu.
Metzinger beschäftigt sich seit mehr als 30 Jahren mit dem Thema des Bewusstseins. „Wir haben hyper active agent detectors in unserem Gehirn“, erklärt er: Wenn es im Gebüsch raschelt, vermuten wir dort eher ein Tier, als dass wir das dem Wind zuschreiben, der in den Blättern raschelt.
Durch die Evolution schlecht vorbereitet
Das sei ein evolutionär bedingter Mechanismus, weil es sicherer ist, lieber einmal zu oft als einmal zu wenig ein Raubtier im Busch zu vermuten. „Das Problem ist: Technologie wird immer besser darin, soziale Halluzinationen zu erzeugen. Neue Geschäftsmodelle werden damit viel Geld verdienen und gleichzeitig die Vertrauensbasis unserer Gesellschaft zerstören.“ Darauf hat uns die Evolution nicht gut vorbereitet.
Das alles heiße nicht, dass Lamda nicht bewusst sei. „Es ist eine logische Möglichkeit, dass es jetzt schon Systeme mit Bewusstsein gibt, wir das aber gar nicht erkennen“, sagt Metzinger. Solange es keinen Test für Bewusstsein gebe und das nicht ausgeschlossen werden kann, müsse man auf ethisch korrekte Weise mit dem eigenen Unwissen und den damit verbundenen Risiken umgehen.
Metzinger findet, die Debatte über den Umgang mit bewussten Maschinen ist längst überfällig. Er selbst hat kürzlich öffentlich gefordert, dass keine Forschung gefördert werden solle, die das Ziel hat oder wissentlich riskiert, „phänomenale Zustände“ in Maschinen zu erzeugen – sprich Bewusstsein und Gefühle. „Ich glaube, dass die Entstehung künstlichen Leidens ein sehr hohes Risiko ist“, sagt er. Allerdings kennen wir die „Eintretenswahrscheinlichkeit“ nicht, wie er sagt: Schließlich sei es total unklar, ob synthetische Phänomenologie überhaupt möglich sei, also auf Maschinen bewusstes Erleben zu erzeugen. „Aber auch die, die behaupten, dass es niemals passieren wird, können das nicht belegen.“
Seine eigene Intuition sage ihm, dass es künstliches Bewusstsein nicht so bald geben wird. „Aber die Intuitionen von Thomas Metzinger sind irrelevant“, warnt er vor seinen eigenen Worten. Schließlich habe die Intuition die Menschheit oft getäuscht: „Immer wieder sind Dinge früher passiert, als man sich das vorstellen konnte“, sagt er. Die Kernspaltung beispielsweise oder das Fliegen.
Maschinen ohne Überlebenstrieb?
Schon 1963 habe der berühmte amerikanische Philosoph Hilary Putnam gefordert, rechtzeitig die Frage zu diskutieren, wie die Menschheit damit umgehen solle, wenn die ersten Maschinen behaupten, sie seien bewusst und Personenstatus fordern.
„Denn wenn das passiert, dann kriegt man keinen Fuß mehr auf den Boden – auch nur halbwegs rationale öffentliche Debatten sind dann nicht mehr möglich“, sagt auch Metzinger. Tatsächlich hat sich die Diskussion jetzt verselbständigt – zwischen Panikmache und übertriebenen Erwartungen.
Das liegt auch daran, dass Google das Thema nicht ernst nimmt – obwohl klar war, dass die Diskussion kommen würde. Die Grundlagen dafür werden im eigenen Haus gelegt, nicht nur mit Lamda, sogar schon viel länger: Ray Kurzweil, quasi der Vater der Sprachsysteme bei Google und heute Leiter der technischen Entwicklung, lässt keine Gelegenheit aus zu betonen, dass sein Ziel eine starke KI ist. Er arbeitet seit mehr als zehn Jahren bei Google und hat seit 2002 eine öffentliche Wette auf der Webseite „Long Bets“ laufen: Kurzweil wettet gegen US-Software-Entwickler Mitchell Kapor, dass bis spätestens Jahr 2029 Maschinen den Turing-Test bestehen. Der Wetteinsatz beträgt 20.000 Dollar. Google nimmt auch die Aktivitäten Kurzweils offenbar nicht ernst. Stattdessen würde das Thema wegdefiniert, sagt Blake Lemoine, indem Sprachsysteme eine harte Regel einprogrammiert bekommen: Sie dürfen die Bewusstseinsfrage nicht bejahen.
Das Bewusstsein einer Maschine müsse übrigens gar nicht die gleiche Natur haben wie das von uns Menschen, sagt Philosoph Metzinger. Vielleicht wäre es sogar möglich, ein Maschinenbewusstsein zu erzeugen, das völlig frei ist von Leiden und Todesangst, sagt er.
Was Metzinger den „existence bias“ – oder auch den „Durst nach Dasein“ – nennt, sei die größte kognitive Verzerrung der Menschen: Wir wollen immer am Leben festhalten, ganz egal, wie schlecht es uns geht. Das sei keine Bedingung für Bewusstsein. „Eine völlig rationale KI hätte im Gegensatz zu uns nie ein Problem damit, sich selbst abzuschalten, wenn sie das sinnvoll fände“, sagt Metzinger.