Künstliche Intelligenz: Die EU zeigt, dass Technologie kein Selbstläufer ist
Nach zähen Verhandlungen einigen sich Politiker der EU auf das weltweit erste Gesetz zur Regulierung von KI. Ein wichtiger Schritt, auch für die Glaubwürdigkeit von Demokratien. Ein Kommentar.
Erst vor Kurzem war bei einer öffentlichen Diskussion über künstliche Intelligenz einmal mehr das fatalistische Argument zu hören, es werde doch sowieso alles umgesetzt, was technisch machbar ist. „Also, ich habe keine Angst vor künstlicher Intelligenz“, fügte der Teilnehmer achselzuckend hinzu.
Die Europäische Union hat am Freitag bewiesen, dass es auch anders geht. Gesellschaften können sehr wohl definieren, welche Einsätze von KI sie nicht haben wollen. Zum Beispiel, dass KI nicht dafür genutzt werden darf, um Verbrechen vorherzusagen. Vor diesem sogenannten „predictive policing“ kann man als Verfechter der Unschuldsvermutung durchaus Angst bekommen. Wenn Thierry Breton von einer „historischen“ Einigung spricht, liegt der EU-Kommissar für Binnenmarkt und Dienstleistungen nicht ganz falsch.
Rund hundert Unterhändler von Europaparlament und EU-Staaten haben sich nach einem dreitägigen Verhandlungsmarathon auf ein KI-Gesetz geeinigt, auch „AI Act“ genannt. Es ist die erste umfassende Gesetzgebung für KI weltweit.
Dem massiven Lobbying widerstanden
Die Monate davor haben Lobbyisten der großen Techfirmen versucht, den AI Act abzuschwächen, wie RiffReporter berichtete. Die großen Tech-Unternehmen aus den USA wollten die derzeit stärkste und vielseitigste KI-Variante, sogenannte Basismodelle, aus dem AI Act heraushalten. Diese KI-Modelle werden mithilfe enormer Rechnerkapazität und Unmengen an Bild-, Text- oder Videodaten trainiert. Sie können daraufhin Texte aller Art erstellen, die von Menschen stammen könnten, oder dekorative und ausdrucksstarke Bilder erzeugen. Jener Chatbot, der KI für alle erlebbar gemacht hat, ChatGPT, beruht auf einem solchen Basismodell, nämlich GPT-4 der kalifornischen Firma OpenAI.
Zuletzt hatten sich Deutschland, Frankreich und Italien an die Seite der Lobbyisten gestellt und verlangt, dass Basismodelle nur einer freiwilligen Selbstkontrolle durch die Hersteller unterliegen sollen. Das mag damit zu tun haben, dass es in Deutschland und Frankreich Start-ups gibt, die selbst Basismodelle entwickeln und als ernsthafte Konkurrenz für Platzhirsche wie OpenAI oder Google gelten. Die europäischen Start-ups sollen nach Ansicht der drei Staaten durch Regeln keine Nachteile im harten Wettbewerb um die leistungsstärksten KI-Modelle haben.
Aber offenbar haben sich die Unterhändler in Brüssel, vor allem Vertreter des Europaparlaments, nicht davon abbringen lassen, Basismodelle zu regulieren. Auch und in anderen Feldern hätten sie hart verhandelt, wie Brando Benifei von der sozialdemokratischen Fraktion berichtete. Die Parlamentarier hätten beispielsweise dafür gesorgt, dass Systeme zur Emotionserkennung an Arbeitsplätzen und in Bildungseinrichtungen verboten würden, sagte Benifei erkennbar stolz.
Regulierung nach Risiko
Zwar liegt der Gesetzestext noch nicht vor. Die Einigung ist vorläufig und die Details sollen laut EU-Ministerrat in den nächsten Wochen fertiggestellt werden. Was jedoch bekannt ist, lässt hoffen, dass der AI Act die angestrebte Balance zwischen Innovationsfreundlichkeit und Sicherheit für die Bürger der EU tatsächlich herstellt.
Der AI Act will KI-Anwendungen je nach ihrem Risiko unterschiedlich scharf regulieren. Das schärfste Schwert ist das Verbot. Es gilt zum Beispiel für Scoring auf der Grundlage von Sozialverhalten oder den Einsatz von KI, um die Schwächen von Menschen auszunutzen.
Die nächste Risikostufe umfasst KI-Einsätze, die Gesundheit von EU-Bürgern, ihre Sicherheit, Bürgerrechte oder die Demokratie gefährden könnten. Für diese „hochriskanten“ Anwendungen seien „effektive und verhältnismäßige Regeln“ vereinbart worden, sagte Thierry Breton bei der Pressekonferenz. So müssen die Hersteller solcher Systeme eine Folgenabschätzung für die Grundrechte vorlegen. Bürger sollen das Recht erhalten, sich über KI-Systeme zu beschweren und Erklärungen zu Entscheidungen zu erhalten, die auf KI-Systemen mit hohem Risiko basieren und ihre Rechte beeinträchtigen.
KI verbreitet Vorurteile
Bei weniger riskanten Anwendungen sollen die Nutzer immerhin erfahren, dass sie es mit einer KI zu tun haben. Eine solche Kennzeichnungspflicht fordert etwa die Medienethikerin Jessica Heesen schon seit langem.
Mit den Basismodellen haben sich die Unterhändler gesondert befasst. Die freiwillige Selbstregulierung ist vom Tisch. Das ist ein wichtiger Erfolg. Denn Basismodelle dienen, wie der Name schon sagt, als Grundlage für viele weitere KI-Anwendungen wie Chatbots zu diversen Themen wie Medizin oder Recht, sowie zum Programmieren, Komponieren oder Übersetzen.
Ihre grundlegenden Fähigkeiten ziehen die Basismodelle aus Datenbasen, deren Qualität und Legitimität oft fragwürdig ist. Weil die Daten aus der Welt des Internets kommen, enthalten sie viele Vorurteile, etwa dass Techniknerds meist männlich sind. Diese Verzerrungen, auch „Bias“ genannt, vererben sie an die Anwendungen, die auf ihnen basieren. Eine App, die Stellenanzeigen verfasst, könnte diese so schreiben, dass sich Männer mehr angesprochen fühlen als Frauen.
Die Trainingsdaten enthalten oft auch urheberrechtlich geschütztes Material, was viele Fragen aufwirft. Zum Beispiel kann ein Chatbot auf Anweisung einen Text im Stil eines bekannten Autors schreiben – was dessen Unverwechselbarkeit bedroht.
Intervention von Deutschland, Frankreich und Italien: „Empörend“
Basismodelle aus der Regulierung zu entlassen, wäre fahrlässig und gefährlich. Vorurteile würden sich ausbreiten und verfestigen. Gerade KI-Basismodelle benötigen eine sorgfältige Pflege und können nicht dem Gutdünken von profitorientierten Unternehmen überlassen werden. Dazu ist KI eine viel zu kritische Technologie. Deshalb hat Sandra Wachter, Professorin für Technologie und Regulation von der Universität Oxford, Recht, wenn sie den Versuch Deutschlands, Frankreichs und Italiens, dieses Paket kurz vor Ende der Verhandlungen noch einmal aufzumachen, als „empörend“ bezeichnet.
Es ist außerdem kurzsichtig von Herstellern der Basismodelle, sich gegen eine Regulierung ihrer Produkte zu wehren, wie zuletzt etwa Jonas Andrulis vom Heidelberger Start-up Aleph Alpha. Denn eine KI, die Vorurteile reproduziert, Hassrede verbreitet oder im Unklaren lässt, von welchen urheberrechtlich geschützten Inhalten sie profitiert, wird auf Dauer kein Vertrauen genießen. Vertrauen ist gerade für Wirtschaftsunternehmen eine unersetzliche Währung. Vor allem sollte die Privatwirtschaft akzeptieren, dass die Bürger in Gestalt ihrer gewählten Vertreter mitbestimmen, wie die KI aussieht, die ihr Leben immer mehr bestimmt.
Regulierung kann innovationsfreundlich sein
Der Einwand, dass Regulierung die Innovation behindere, ist berechtigt. Doch wird er in einer schwarz-weiß geführten Debatte oft als Totschlagargument genutzt. Es kommt auf das Wie der Regulierung an, ob sie Innovation behindert, kaum behindert, oder vielleicht sogar fördert.
Die Brüsseler Einigung zeigt, dass sich die Unterhändler um innovationsfreundliche Regeln bemüht haben. Auf der einen Seite sollen Basismodelle bestimmten Transparenzanforderungen genügen und besonders risikoreiche Modelle sollen zudem einige strengere Auflagen erhalten. Doch auf der anderen Seite lässt die EU auch Luft für den Innovationsprozess. So soll es „regulatorische Sandkästen“ geben, die Tests von neuen KI-Anwendungen unter Realbedingungen ermöglichen. Die Forschung und Entwicklung an Basismodellen soll gar nicht reguliert werden, kommentierte Chefunterhändlerin Carme Artigas, spanische Staatssekretärin für Digitalisierung und KI, das Verhandlungsergebnis zum AI Act.
Es fragt sich sogar, ob der AI Act nicht zu große Lücken lässt. Denn auch die Trainingsphase von Basismodellen sowie Open-Source-Basismodelle sollen laut Artigas unreguliert bleiben. Open-Source-Modelle sind Systeme, die von Wissenschaftlern oft aus altruistischen Motiven entwickelt werden, wie etwa das europäische Open-Source-Modell „Bloom“, das 46 Sprachen beherrscht.
Kein Sonderstatus für Open Source
Zwar haben solche Projekte oft zum Ziel, die Probleme von großen KI-Modellen wie eben den Bias zu lösen. Doch deswegen sollten sie keinen Sonderstatus erhalten. Das würde es zu einfach machen, zu sagen: „Ich bin ein Start-up und mache das Ganze aus altruistischen Motiven“, kritisiert Philipp Hacker. Der Professor für Recht und Ethik der digitalen Gesellschaft an der Europa-Universität Viadrina in Frankfurt (Oder) hält Basismodelle für zu wirkmächtig, um einen Unterschied zwischen Open-Source oder nicht Open-Source zu machen. Mit ähnlicher Argumentation könne man ja auch kein Auto ohne Airbag auf den Markt bringen.
Auch wenn noch unklar ist, wie die neuen KI-Regeln im Einzelnen aussehen werden und noch einige Fragezeichen im Raum stehen: Der AI Act der Europäischen Union ist ein Stoppschild für eine Tech-Branche, die es gewohnt ist, alles, was machbar ist, einfach in die Welt zu setzen. Technologie ist kein Schicksal, sondern ein Werkzeug, das man so oder so nutzen kann. In einer Zeit, in der Demokratien beweisen müssen, dass sie es besser können, ist es wichtig, dass sie in der Lage sind, Technologie bürgerfreundlich zu gestalten und dennoch wettbewerbsfähig zu bleiben.