Künstliche Intelligenz: Metas Algorithmus „Cicero“ verhandelt mit Menschen
Eine neue Software spielt das Strategiespiel „Diplomacy“, bei dem Spieler untereinander verhandeln, ziemlich gut. Künstliche Intelligenz wird damit wieder einen Schritt menschenähnlicher. Eine Kennzeichnungspflicht für Algorithmen sei unumgänglich, meint eine Medienethikerin.
John F. Kennedy soll es gespielt haben, der ehemalige US-Außenminister Henry Kissinger – und jetzt eine künstliche Intelligenz namens „Cicero“: das Strategiespiel „Diplomacy“. Laut den Entwicklern von „Meta“ schlug sich die KI dabei recht wacker: „Cicero“ punktete bei der Onlineversion des Spiels mehr als doppelt so hoch wie ein menschlicher Durchschnittsspieler und gehörte unter denen, die mehr als einmal gespielt hatten, zu den besten zehn Prozent, wie die Forscher des „Meta Fundamental AI Research Diplomacy Team“ im Magazin „Science“ berichten.
Bemerkenswert ist das, weil „Diplomacy“ sich von allen Spielen unterscheidet, in denen künstliche Intelligenzen Menschen bislang klar aussticht. Während die Spieler sich bei Schach oder im hochkomplexen asiatischen Brettspiel Go anschweigen, verhandeln sie bei Diplomacy miteinander, schließen Bündnisse, brechen diese oder bluffen auch mal. Die sprachliche Kommunikation liegt im Kern dieses Spiels, das nach dem ersten Weltkrieg entstand und bei dem sieben Spieler um die Kontrolle über Europa konkurrieren. Entscheidend für den Spielerfolg ist es, die Überzeugungen, Absichten und Ziele der Mitspieler zu verstehen. Man muss gemeinsame Aktionen planen und den Partner überzeugen können.
Eine taktisch geschickte KI
Somit ist „Cicero“ ein Schritt hin zu KIs, die in natürlicher Sprache planvoll mit Menschen zusammenarbeiten. Verglichen damit ist Googles KI „AlphaZero“ aus dem Jahr 2017 ein Autist. Sie brachte sich Go, das komplexeste Brettspiel der Welt, selbst bei, indem es das Spiel millionenfach gegen sich selbst spielte.
Das Team bei Meta kombinierte nun mehrere jüngst erfolgreiche KI-Techniken, um aus „Cicero“ einen taktisch geschickten Spieler zu machen, der darüber hinaus in der Lage ist, mit Menschen zu kommunizieren. In den letzten paar Jahren machten so genannte Sprachmodelle von sich reden, wie etwa „Palm“ von Google oder „GPT-3“ des kalifornischen Unternehmens „Open AI“. Diese KIs erzeugen natürlich klingende Sprache, nachdem sie mit Unmengen an Texten aus dem Internet trainieren wurden. Sie können Fragen beantworten, Sätze vervollständigen, Geschichten oder Liedtexte verfassen, Witze erklären oder Textaufgaben lösen. Laut Google hat „Palm“ fast das Sprachverständnis eines 9– bis 12-jährigen Kindes (wobei „verstehen“ wohl nicht der richtige Ausdruck ist, da die Algorithmen anhand gelernter Muster die statistisch wahrscheinlichste Antwort geben).
Sprachmodelle sind nie fertig, sondern können stets dazulernen, insbesondere kann man sie mit fachbezogenen Texten für ein spezielles Einsatzgebiet verfeinern. Das hat das Team von Meta mit Hilfe von Dialogen aus früheren Diplomacy-Spielen getan. Das ermöglicht der Software einen authentisch klingenden Dialog mit Mitspielern.
Mitspieler merkten nicht, dass sie mit einer KI interagierten
Die Absichten der Mitspieler analysiert Cicero mit Hilfe einer zweiten Software-Komponente. Diese berechnet optimale Züge anhand der Stärke der bisherigen Aktionen der Mitspieler. Mögliche Aktionen beurteilt die Software auch danach, wie wahrscheinlich sie ein Mensch ausführen würde. So gelang es den Entwicklern, eine KI zu entwickeln, die den Mitspielern authentisch erscheint. Sie konnte Mitspieler von gegenseitig nützlichen gemeinsamen Zügen überzeugen.
Das ist anders als beim Go-Programm AlphaZero, das Strategien nutzte, die selbst Experten zuvor nicht kannten – es spiele wie ein „Alien“, formuliert es Demis Hassabis von Googles Tochterfirma „Deepmind“, die das Programm entwickelte. Die Mitspieler von Cicero hingegen merkten in 40 Spielen nicht, dass sie es mit einer KI zu tun hatten.
Kristian Kersting, KI-Experte von der TU Darmstadt, zeigt sich beeindruckt: „Cicero ist für mich und viele Kollegen ein Durchbruch, weil es sowohl das Spiel gut spielen als auch informelle Verhandlungen durchführen kann. Diese Kombination aus natürlicher Sprachverarbeitung und strategischem Denken ist ein Novum für ein spielendes KI-System.“
Die KI hat indessen auch Schwächen. Cicero habe gelegentlich Botschaften gesendet, die nicht begründet waren oder seinen Plänen widersprachen, schreiben die Forscher von Meta. Zudem habe sie keine Strategie verfolgt, die über die aktuelle Partie hinausging. Ihre Dialoge waren relativ flach, sie stellte keine Fragen, oder erklärte seine Aktionen nicht.
Kennzeichnungspflicht für Algorithmen
Dennoch erkennt Jessica Heesen von der Universität Tübingen mit Cicero eine neue Qualität in der Kommunikation zwischen Mensch und Maschine. Die Software erlaube einen stärkeren Einfluss auf Kommunikationsgeschehen und Handlungen als bisherige Sprachmodelle, sagt die Medienethikerin. Nicht nur, dass sich die KI an ihre Kommunikationspartner anpasse, sondern sie könne auch einen eigenen Zweck der Kommunikation entwickeln.
Heesen warnt vor einem intransparenten Einsatz solcher Algorithmen. „Der Mensch täuscht sich darüber, dass die KI ihn ‚versteht‘“, erklärt die Expertin für Ethik in der KI, „aber das ändert nichts daran, dass die jeweiligen Kommunikationspartnerinnen die Situation als authentisch erleben.“ Deshalb sei es ethisch problematisch, wenn Menschen nicht darüber informiert würden, dass sie mit einem technischen System interagieren. Wer weiß, dass er oder sie mit einer Maschine spricht, interpretiert die Reaktionen des Gegenübers anders. Man sei zum Beispiel „misstrauischer in Bezug auf Manipulationsabsichten“, sagt Heesen.
Auch wegen des Datenschutzes sollten Menschen wissen, wenn sie mit einer KI reden, betont Heesen: „Einem Menschen vertraut man in der Regel eher private Informationen an als einem IT-System, das alle Informationen auswertet und weitergibt.“
Daher müsse es „jederzeit transparent“ sein, wenn Menschen mit KI interagieren, fordert die Wissenschaftlerin. Sie begrüßt die Kennzeichnungspflicht, die der Regulierungsvorschlag der EU vorsieht.
„Manipulation durch KI lässt sich kaum einhegen“
Die EU will auch der Manipulation von Menschen durch KI einen Riegel vorschieben. Manipulation sei jedoch schwer durch Regeln einzuhegen, meint Heesen. „Wie sollen die Grenzen gezogen werden zwischen einer böswilligen oder diskriminierenden Manipulation oder der Verfolgung eines sinnvollen Zwecks in der Kommunikation?“, fragt sie. Strategische Kommunikation könne auch bedeuten, einen Menschen zu umweltbewussteren Handeln zu bewegen.
Eine KI, die Ziele verfolgt, ist also nicht automatisch „böse“. Es kommt darauf an, wie man sie anwendet.