Gibt es vertrauenswürdige künstliche Intelligenz?
Während künstliche Intelligenz in den Alltag vordringt werden immer neue Skandale bekannt. Viele rufen nach ethischeren Algorithmen. Wie das gelingen soll, ist indessen umstritten.
Gehört die Wohnung der Zukunft ihren Bewohnern – oder vielleicht eher deren intelligenten Haushaltsroboter? Wer ethische Fragen wie diese beim Entwicklungsprozess von künstlicher Intelligenz (KI) ausblendet, landet mitunter bei kuriosen Designs, wie ein Beispiel aus Garmisch-Partenkirchen zeigt. Das dortige Forschungszentrum Geriatronik plante eine Modellwohnung, in der das Zusammenleben von alten Menschen und Robotern erforscht werden soll.
Die Ingenieure entwarfen sie im Stil eines Großraumbüros, also mit wenigen Türen und kaum separaten Räumen. Das sollte den Robotern Bewegungsfreiheit verschaffen, ließ das Bedürfnis von Menschen nach einem Rückzugsort jedoch unberücksichtigt.
Offensichtlich hatten die Entwickler die Nutzer ihrer Technik zu wenig im Blick. Solche Pannen will Alena Buyx vermeiden. „Ethik muss Teil des Entwicklungsprozesses sein“, sagt die Professorin für Ethik der Medizin und Gesundheitstechnologien. Ihr Team an der Technischen Universität in München hat dafür ein Konzept entwickelt, das es kürzlich im Fachmagazin „nature machine intelligence“ vorstellte. Mit ihrer Arbeit trägt Buyx zu einer ethischen Debatte bei, die derzeit auch die EU-Kommission beschäftigt. Ethiker fordern von der Politik, die Hersteller von KI stärker in die Pflicht zu nehmen.
Die Frage, wie KI den Alltag verändert und wie das im Einklang mit gesellschaftlichen Werten geschehen kann, drängt sich auf. Lernfähige Algorithmen dringen in immer mehr Lebensbereiche vor. Ihre „Intelligenz“ beziehen sie aus digitalen Methoden, die Aspekte des menschlichen Lernvermögens nachahmen. Zwar ist ein einzelner KI-Algorithmus auf jeweils ein Anwendungsfeld begrenzt – etwa das Erkennen von Gesichtern in Kamerabildern. Doch darin übertrumpft er oft den Menschen. Er durchforstet große Datensätze blitzschnell und wertet feinste Details in den Daten aus, die ein Mensch oft gar nicht wahrnimmt. Um die Datenflut in digitalen Zeiten zu beherrschen, ist das sehr nützlich. Etwa wenn eine KI anhand von Röntgenbildern schneller unterscheiden kann, auf welche Therapie ein Lungenkrebspatient anspricht oder nicht. Medizin ist indessen ein ethisch schwieriges Gelände. Und bei weitem nicht das einzige, auf dem lernfähige Algorithmen für effizientere Abläufe sorgen sollen.
Wie Algorithmen diskriminieren
Besonders sensibel wird es, wenn Algorithmen über die Geschicke von Menschen mitbestimmen. Weil KI mittels Daten aus der Praxis lernt, übernimmt sie etwaige darin verborgene Vorurteile, bis hin zu Fremdenfeindlichkeit und Sexismus, wie ein Beispiel aus Österreich zeigt. Dort hat ein Algorithmus die Chancen für Arbeitssuchende auf dem Jobmarkt geschätzt. Im Testbetrieb gab er Frauen und nicht österreichischen Staatsbürgern eine schlechtere Bewertung. Stets besteht also die Gefahr, dass KI Ergebnisse produziert, die gesellschaftlichen Wertvorstellungen widersprechen. Viele betrachten es daher mit Sorge, dass Algorithmen immer öfter Menschen beurteilen, wie die Organisation Algorithmwatch beobachtet. Maschinen prüfen etwa die Kreditwürdigkeit eines Kunden oder durchkämmen für Personalabteilungen das Internet nach persönlichen Informationen eines Bewerbers, um daraus dessen „Fluchtrisiko“ zu beurteilen1.
Oft befinden Algorithmen über Menschen, ohne dass diese es mitbekommen. Auf sozialen Plattformen bilden sie Profile von Nutzern, auf deren Basis sie deren Verhalten vorhersagen. Meist ist das recht harmlos. Etwa wenn die Verhaltensprognose der personalisierten Werbung dient: welche Anzeige wird die Nutzerin anklicken? Was aber, wenn eine Jobsuchende es gar nicht mitbekommt, dass sie Opfer der Fehlentscheidung eines Algorithmus auf Basis einer Verzerrung ist? Die Ergebnisse mancher KI-Verfahren sind zudem nicht erklärbar, sondern entstehen aus einem ebenso hoch komplexen, wie intransparenten Modell, das der Algorithmus im Lernprozess selbständig erstellt hat.
Fiktive Influencer
Schließlich begünstigt KI die Verbreitung von Fake News und anderer Desinformation. Lernfähige Algorithmen der Videoplattform Youtube empfehlen Videos, die ein Nutzer gemessen an seinen bisherigen Sehgewohnheiten wahrscheinlich anklicken wird. Wenn jemand einige Videos mit extremistischem Inhalt geschaut hat, bekommt er ähnliche Inhalte empfohlen – sein Hang verstärkt sich. Schließlich lässt sich KI auch absichtlich für Desinformation missbrauchen. Besorgnis erregen insbesondere so genannte „Deep Fakes“. Algorithmen können lernen, welche Bilder von Menschen als realistisch wahrgenommen werden und welche nicht. Das ermöglicht es ihnen, Gesichter digital zu fälschen oder Bilder fiktiver Personen zu entwerfen, die so lebensecht aussehen, dass sie nur mit forensischen Methoden als Fakes entlarvt werden können. Eine russische Trollfabrik hat diese Technik bereits im laufenden Wahlkampf zwischen Joe Biden und Donald Trump eingesetzt, wie jüngst bekannt wurde. Das Ziel war es, dem Kandidaten der Demokraten für politisch links stehende Wähler unattraktiv zu machen, mithilfe von Artikeln, die ihn zentristisch erscheinen lassen. Dazu erfanden die russischen Manipulatoren eine „Redaktion“, deren „Mitglieder“ sie auf Facebook-Profilen vorstellen. Die Redakteure gibt es nicht, obwohl sie samt – realistisch aussehendem – Portraitbild „vorgestellt“ werden.
Das ethische Gewissen des Teams
Vor diesem Hintergrund wird der Ruf nach einer ethischen KI immer lauter. Das Münchner Team um die Medizinethikerin Alena Buyx will die künstliche Intelligenz ethisch und sozial verantwortlich machen. Algorithmen sollen Individuen und Gemeinschaften nutzen, aber nicht schaden, schreiben die Forscher. Die „eingebettete Ethik“ stellen sich die Münchner als eine Art Gewissen vor, das die Entwickler stets begleitet, um soziale und ethische Fragen „zu antizipieren, zu identifizieren und anzugehen.“ An jedem Meilenstein – von Planung, Design, Programmierung und Tests bis zur Implementierung – sollten „Punkte ethischer Ungewissheit oder Uneinigkeit im Hinblick darauf analysiert werden, welche Handlungsweise verfolgt werden sollte oder wie ein ethisches Konzept zu verstehen ist.“ So würden auch ethische Fallstricke entdeckt, die nicht in die schon bekannten Kategorien wie der Schutz der Privatsphäre oder die oben beschriebenen „Verzerrungen“. Jede Anwendung könne spezifische Fragen aufwerfen, meinen die Autoren.
Wie das in der Praxis aussehen könnte, zeigt ein Beispiel aus der biotechnologischen Forschung, über das Stat-News, eine medizinjournalistische US-Website schon 2017 berichtete. Das Team des Genomforschers George Church an der Harvard University in Boston hat seine eigene Ethik-Beraterin, die Philosophin Jeantine Lunshof. Church ist bekannt dafür, ethisch sumpfiges Gebiet zu betreten. Er hat 2006 das „Personal Genome Project“ ins Leben gerufen, das das Genom von 100000 Teilnehmern veröffentlichen will – ohne Anonymisierung. Die Daten sollen etwa die Pharmaforschung voranbringen.
Jeantine Lunshof nimmt an Forschungsprojekten von Churchs Institut teil. Ihr Job ist es, sich nicht zu scheuen, schon während des Designs eines Experiments ethische Fragen vorherzusehen, die von außen gestellt werden könnten. Als einige von Churchs Mitarbeitern „kognitive Tests“ an Personen vornehmen wollten, deren Genom sie zuvor sequenziert hatten, erhob Lunshof Einspruch. Sie forderte, „das Genom nicht mit der Kognition oder dem IQ zu verknüpfen“. Denn es gibt viele Definitionen von „Intelligenz“, die zudem von der jeweiligen Kultur abhängen. Messen lässt sie sich daher nicht. Lunshof verlangte von den Forschern, genauer zu definieren, was sie eigentlich messen wollten. Die Intervention könnte die Forscher davor bewahrt haben, später erklären zu müssen, dass sie eben nicht den IQ messen. Die Ethikerin markiere ethische Minenfelder, bevor das Labor über eines stolpert, fasst Stat-News Lunshofs Rolle zusammen.
Zum Team gehörende Ethiker seien der Goldstandard, behaupten die Münchner Forscher um Buyx. Falls die Mittel dazu nicht reichten, könnten aber auch Ethiker aus anderen Institutionen herangezogen werden. Der Austausch solle allerdings in regelmäßig erfolgen. Auf keinen Fall sollen die Entwickler sich nur dann an die Ethiker wenden, wenn sie selbst einen moralischen Fallstrick wahrnehmen. Das Risiko, dass ethische Fragen übersehen werden, müsse minimiert werden. Von Anfang an sollten auch die Befugnisse der Ethiker festgeschrieben werden, etwa die, an Entscheidungen mitzuwirken. Wichtig sei auch die Dokumentation von aufgeworfenen Fragen und dem Umgang damit, sodass das ganze Feld der KI aus den Fallstudien lernen könne.
Die Betroffenen fragen
Zwei Experten für KI-Ethik bezweifeln gegenüber Riffreporter, dass es reicht, Ethiker in das Entwicklungsteam zu integrieren. „Die Nutzer eines Systems sollten ebenfalls schon in die Entwicklungsphase einbezogen werden“, sagt Olga Levina Gastwissenschaftlerin am Forschungszentrum Informatik in Berlin. Als Beispiel nennt die Wirtschaftsinformatikerin Algorithmen für Jobcenter, die Fortbildungen vorschlagen. Die Entwickler sollten die Mitarbeiter der Jobcenter fragen, was sie mit dem System erreichen wollten. Und: „Was passiert mit den Leuten, die dem Ergebnis ausgesetzt sind?“ Auch die Kunden der Jobcenter müssten einbezogen werden, meint Levina. Vielleicht würden sie sich ja andere Ergebnisse oder mehr Information wünschen. Nicht zuletzt sollten Psychologen im Team sein, die die Benutzerschnittstellen des Systems entwerfen. „Die könnten mehr Diversität reinbringen“, meint Levina und Nutzer beachten, die demographisch und gemessen an ihrem Hintergrund den Entwicklern nicht zu ähnlich seien.
Viele Algorithmen würden entwickelt, ohne zu wissen, in welchem Kontext sie eingesetzt würden, moniert Levina. Umgekehrt wüssten auch Nutzer oft nicht, mit welchen Daten eine KI trainiert wurde. Das Training erfolgt oft in einer zwar ähnlichen, aber nicht der gleichen Umgebung, in der das System später eingesetzt wird. Es macht einen Unterschied, ob ein Algorithmus, der Therapievorschläge machen soll, mit Patientendaten aus den USA oder aus Europa trainiert wurde. Ärzte aus verschiedenen Ländern folgen oft unterschiedlichen Leitlinien. Das zeigte sich etwa beim Probeeinsatz einer KI namens „Watson“ des Herstellers IBM an einer Kopenhagener Klinik. Watson mache falsche Therapievorschläge, klagten die Ärzte dort. Um die Nutzer über den Kontext aufzuklären, schlägt Olga Levina einen „Beipackzettel“ vor. Dieser informiert darüber, für welchen Zweck das System entwickelt und mit welchen Daten es trainiert wurde.
„Politik ist in der Pflicht“
Auch die Kölner Medizinethikerin Christiane Woopen fordert, alle betroffenen gesellschaftlichen Gruppen an der Entwicklung von KI teilhaben zu lassen. Schließlich sei es eine „machtvolle Technik, die den öffentlichen Raum transformiert“. Woopen glaubt nicht, dass die Industrie diese Teilhabe freiwillig umsetzen wird. „Die Politik ist in der Pflicht“, sagt sie.
Woopen gehört der Datenethikkommsion an, die die Bundesregierung zum Umgang mit Daten und algorithmischen Systemen, darunter auch KI, beraten hat. Die Ethikerin fordert eine „Verordnung für algorithmische Systeme“ ähnlich der Datenschutzgrundverordnung der EU. Der Staat müsse steuernd eingreifen – auf nationaler wie auf europäischer Ebene. Das „Wie“ müsse demokratisch ausgehandelt werden. Die Regeln sollten sich an das Risikopotenzial einer KI-Anwendung anpassen, meint Woopen. „Wir haben dazu ein fünfstufiges Modell vorgeschlagen.“ Techniken, die unvertretbare Schäden anrichten können, wie autonome Waffensysteme, sollten verboten werden können. Ein Zuviel an Regeln drohe aber nicht, meint Woopen. Denn das Stufenmodell sei pyramidenförmig: Die Basis der Pyramide, somit ein großer Teil, seien Anwendungen mit allenfalls geringem Schädigungspotenzial, die keine zusätzliche Regulierung brauchen. Bei mittleren Stufen sollten dem jeweiligen Risiko angemessene zusätzliche Maßnahmen greifen. Hersteller könnten dann zur Transparenz verpflichtet werden oder Kontrollen unterliegen. Die Experten der Datenethikkommission schlagen hierzu ein „Kompetenzzentrum für Algorithmische Systeme“ vor, das die Behörden bei dieser Kontrolle mit technischer Expertise unterstützt. Schließlich sollen auch die Betroffenen von algorithmischen Entscheidungen, wie etwa Patienten oder Jobsuchende, das Recht auf eine individuelle Erklärung der Entscheidung erhalten.
Die Politik nehme die Vorschläge jedoch nicht „in ausreichender Kraft“ auf, kritisiert Woopen. Viel habe sie da von der deutschen Politik nicht mitbekommen, pflichtet Olga Levina bei. Zwar verlangt die Bundesregierung in ihrer KI-Strategie eine „verantwortungsvolle und gemeinwohlorientierte Entwicklung und Nutzung von KI“. Doch das Papier bleibe deutlich hinter Empfehlungen der Datenethikkommission zurück, wie der Verbraucherzentrale Bundesverband evaluierte. So fehle etwa ein klares Bekenntnis, dass die Betreiber eines Algorithmus dessen Entscheidungen den Betroffenen erklären müssen.
Die deutsche Regierung sieht den Ball eher in Brüssel. Dort tut sich auch etwas. „Die EU will KI regulieren“, meint Olga Levina. Eine von der EU-Kommission eingesetzte Expertengruppe hat „Ethik-Leitlinien für eine vertrauenswürdige KI“ erarbeitet. In Form konkreter Fragen an die Entwickler sollen ethische Fallstricke aufgespürt werden. Ob die KI den Nutzer darüber aufkläre, dass er mit einer Maschine interagiert und nicht mit einem Menschen, lautet etwa eine Frage. Das Gremium formulierte zudem Anforderungen an ethische KI, wie „menschliche Kontrolle und Aufsicht“, „Transparenz“ oder „Rechenschaftspflicht“. Das Papier hat allerdings nur empfehlenden Charakter.
Lob und Kritik für die Initiative aus Brüssel
Wie eine verbindliche Regulierung aussehen könnte, hat die EU-Kommission in einem Weißbuch zur künstlichen Intelligenz skizziert. Darin schlägt sie eine Mischung aus Förderung und Regulierung von KI vor. Sie nennt es ein „Konzept für Exzellenz und Vertrauen“. Dass die Politik die Vertrauenswürdigkeit von Algorithmen betone und damit einen Ethik-basierten Ansatz wähle, sei lobenswert, kommentierten Thomas Metzinger von der Uni Mainz und Mark Coeckelbergh von der Uni Wien, beide Mitglieder in der Expertengruppe der Kommission. Die Philosophen würdigten einen Punkt im Weißpapier besonders: Eine KI soll bereits vor ihrem Einsatz auf die Konformität mit den Regeln geprüft werden, und zwar auch dann, wenn der Entwickler außerhalb der EU sitzt. Wenn der Algorithmus etwa mit Daten aus den USA trainiert wurde, könnte das gegen die Forderung nach einer hohen Qualität der Trainingsdaten verstoßen. Dann müsste das System vor seinem Einsatz in der EU mit Daten aus der EU nachtrainiert werden.
Doch dem Lob folgt Kritik. Die Aufteilung in nur zwei Klassen, „hohes“ Risiko oder nicht, sei viel zu grobkörnig, befürchten Metzinger und Coecklenberg. Das mache den präventiven Ansatz zunichte. Nicht eindeutig riskante Algorithmen würden durchs Raster fallen und eventueller Schaden sich erst im Einsatz zeigen, befürchten die beiden Philosophen. „Das zweistufige Schema bildet die Vielfalt algorithmischer Systeme nicht ab“, moniert auch Christiane Woopen. Das könne zu einer Überregulierung führen, wenn viele Anwendungen als hochriskant betrachtet würden. Woopen fordert die Bundesregierung auf, sich in Brüssel für das fünfstufige Risikoschema der Datenethikkommission stark zu machen.
Einspruch erhebt auch der Verbraucherzentrale Bundesverband. So würden Hochrisiko-Anwendungen nur auf bestimmte Sektoren wie Medizin oder Verkehr begrenzt. Doch Gefahr drohe auch anderswo, etwa bei Social-Media-Anwendungen. KI kann auf Basis weniger Likes Persönlichkeitsprofile erstellen, wie Forscher zeigten. Was, wenn diese zur gezielten Manipulation Einzelner genutzt werden (wie im Skandal um Cambridge Analytica bereits geschehen)? Das Weißbuch der EU-Kommission sieht nicht vor, dass die Betreiber ihren Kunden solche Entscheidungen erklären müssten. Auch das kritisieren die Verbraucherschützer.
Insgesamt bleibt der Vorschlag EU-Kommission deutlich hinter den Ansprüchen von Ethikern zurück. Die Kommission scheine unter starkem Druck der Wirtschaft zu stehen, spekuliert der Verbraucherzentale Bundesverband. Hinter dem Fehlen eines Verbots von autonomen Vernichtungswaffen im Weißbuch vermuten Thomas Metzinger und Mark Coeckelbergh den Einfluss der Rüstungsindustrie.
Keine Vermenschlichung von KI
Die großen Digitalunternehmen wie Facebook wirken auf die Ethikdebatte ein. Mark Zuckerbergs Unternehmen etwa finanziert das „Institute of Ethics in Artificial Intelligence“ an der TU München. Zur „Marketingstrategie“ gehöre eine positiv besetzte Sprache über Künstliche Intelligenz, sagt Woopen. Doch eine „vertrauenswürdige“ KI könne es gar nicht geben. „Man kann nur Menschen vertrauen“, sagt die Ethikerin. „Bei einer Maschine kann man sich nur darauf verlassen, dass sie funktioniert, weil die von Menschen zu verantwortenden Rahmenbedingungen ihrer Herstellung und Kontrolle das nahelegen.“ Algorithmen würden auch nicht „entscheiden“. Es sei irreführend, Maschinen menschenähnlich darzustellen. Woopen fordert eine klare Grenzziehung zwischen Mensch und KI.
Wer diese Grenze klar zieht, kommt vielleicht auch nicht in Versuchung, eine Wohnung nach den „Bedürfnissen“ von Robotern auszurichten. Das Forschungszentrum für Geriatronik in Garmisch-Partenkirchen vermied diesen Fehler letztlich auch. In das Team eingebettete Ethiker sahen sich die Pläne für die Seniorenwohnung an und hakten ein: Die Ingenieure mögen beim Planen bitte die Perspektive der betagten Bewohner stärker berücksichtigen.
1Shoshana Zuboff „Das Zeitalter des Überwachungskapitalismus“, campus Verlag 2018, S.203.