- /
- /
Künstliche Intelligenz: Wie Big Tech und andere Lobbyisten versuchen, das KI-Gesetz der EU zu ändern
Mächtige Lobbyisten in Brüssel: US-Internetkonzerne wehren sich gegen europäische KI-Regulierung
Gegen Ende des Jahres will die EU das weltweit erste umfassende KI-Gesetz, den „AI Act“, verabschieden. Es soll eine Balance zwischen Schutz vor KI-Risiken und Innovation schaffen. Doch der Tech-Branche gehen viele Regeln zu weit. Sie lobbyiert massiv, ist sich aber in einem zentralen Punkt uneinig.
In Brüssel geht dieser Tage ein erbitterter Kampf um die Zukunft der künstlichen Intelligenz in die letzte Runde. Bis Ende des Jahres soll der „Trilog“ zwischen EU-Kommission, EU-Parlament und EU-Ministerrat die endgültige Fassung des KI-Gesetzes erarbeiten. Brüssel will Leitplanken für die neue Technologie setzen, insbesondere auch für die neuesten KI-Modelle wie ChatGPT oder Googles „Bard“, die mit ihrer Fähigkeit, neue Inhalte zu generieren, den Arbeitsmarkt umwälzen könnten. Doch Google, Microsoft oder Meta wollen allein bestimmen, wie sie ihre KI entwickeln und wehren sich massiv gegen weitreichende Regeln im Brüsseler „AI Act“. Dabei nehmen sie keine Rücksicht auf die Interessen kleinerer IT-Unternehmen.
Strenge der Regeln nach Risiken abgestuft
Der AI Act soll gleichzeitig Bürger vor riskanten KI-Einsätzen schützen und die europäische KI-Industrie fördern, die mit dem Label „vertrauenswürdige KI aus Europa“ punkten könnte. Die EU hat nach Risiken abgestufte Regeln vorgeschlagen. KI-Einsätze mit „inakzeptablen“ Risiken, wie biometrische Überwachung im öffentlichen Raum, sollen verboten werden.
Die nächste Stufe umfasst KI-Einsätze mit „hohem Risiko“, die Sicherheit oder Grundrechte von Bürgern beeinträchtigen. Dazu zählt KI, die kritische Infrastrukturen wie die Energieversorgung steuert, oder die über Menschen entscheidet, etwa Bewerber auswählt. Hochriskante KI soll strenge Auflagen erfüllen. Der Hersteller muss etwa ein Risikomanagementsystem einführen und die Qualität der Trainingsdaten sicherstellen.
Laut EU-Kommission fallen 10 bis 15 Prozent der KI-Einsätze in die Hochrisiko-Klasse; alle anderen würden schwächer reguliert. So will die EU Augenmaß zeigen. Dennoch ist der AI Act umstritten. Bürgerrechtlern geht er nicht weit genug, Vertreter der europäischen digitalen Industrie warnen vor „Überregulierung“.
Big Tech verstärkt Lobbyarbeit
Besonders aggressiv lobbyieren amerikanische Tech-Giganten wie Google und Microsoft in Brüssel. Sie protestieren gegen den Plan des EU-Parlaments und des Rats, sogenannte Basismodelle mit ähnlichen Auflagen zu belegen wie Hochrisiko-KI.
Basismodelle werden mit einem breiten Datensatz trainiert, etwa Texten aus dem Internet, um eine grundlegende Fähigkeit wie Sprache zu erlernen. Darauf basierend werden sie für diverse Spezialanwendungen verfeinert. ChatGPT von OpenAI ist eine Verfeinerung des Basismodells GPT3.5, optimiert für den Chat mit Menschen.
Im Mai tourte Sam Altman durch europäische Hauptstädte und drohte, sich mit seiner Firma OpenAI aus Europa zurückzuziehen, sollte der AI Act „in dieser Form“ durchgehen. Zeitgleich sprach Google-Chef Sundar Pichai in Brüssel mit EU-Politikern über das KI-Gesetz.
Die Tech-Giganten würden „Vollzeit“ daran arbeiten, die Regeln für Basismodelle zu beeinflussen, schreiben Lobby-Beobachter des Corporate Europe Observatory (CEO) in einer Studie. „Big Tech hat enorme Ressourcen dafür“, sagt CEO-Mitarbeiter Bram Vranken. Für ihre Brüsseler Büros geben Google, Meta, Microsoft, Amazon und Apple laut EU-Transparenzregister zusammen bis zu rund 31 Millionen Euro im Jahr aus.
Lobbygruppen bilden „Scheinorganisationen“
Ein „problematischer“ Aspekt der Lobbyarbeit seien „Scheinorganisationen“, die vorgeben, im Namen von Startups zu sprechen, aber „stark von Big Tech finanziert werden“, sagt Vranken. Eine davon soll „Allied for Startups“ sein, ein weltweites Netzwerk von Interessenvertretern für Startups mit Sitz in Brüssel. Es wird von Google, Apple, Microsoft, Amazon und Meta gesponsert.
„So vernebelt Big Tech die Diskussion“, sagt Vranken. Es gibt nämlich einen Konflikt zwischen den Tech-Riesen und kleinen Firmen. Die Großen wollen die Verantwortung über Basismodelle von sich weg auf deren Anwender schieben, also meist kleinere Unternehmen oder Startups, die daraus eine Spezialanwendung wie einen Chatbot für Medizin entwickeln.
Google argumentiert, Basismodelle an sich seien nicht riskant, sondern allenfalls, was die Anwender daraus machen. Und die könnten die Risiken ihrer Endprodukte am ehesten einschätzen.
Ähnlich argumentiert „Allied for Startups“ und fordert, keine eigenen Regeln für so genannte „Allzweck-KI“ einzuführen. Basismodelle fallen wegen ihrer Vielseitigkeit in diese Kategorie. Das ist nicht das erste Mal, dass Allied for Startups im Einklang mit Google, Meta und Co. lobbyiert. Als das EU-Parlament gezielte Online-Werbung deutlich beschränken wollte, fuhr Allied for Startups eine Kampagne dagegen, genau wie Big Tech.
Das stößt einem anderen Lobbyverband sauer auf. Die „European Digital SME Alliance“, die die Interessen kleiner und mittlerer europäischer IT-Firmen vertritt, beschwert sich über „verdeckte und irreführende Methoden, mit denen die Gesetzgeber in Bezug auf das KI-Gesetz beeinflusst wurden.“ Der Verband wehrt sich gegen Versuche Big Techs, die ganze Verantwortung auf die Anwender von Basismodellen zu schieben. Die Auflagen allein zu erfüllen, sei für kleinere Firmen „übermäßig belastend“.
Ins gleiche Horn stößt die Bundestagsfraktion der CDU/CSU. In einem Antrag verlangt sie, Dokumentationspflichten sollten nur für die „ganz großen Entwickler“ von Basismodellen gelten. Die Fraktion möchte so die amerikanischen Anbieter dieser Modelle gegenüber kleineren europäischen Basismodell-Entwicklern, wie die Heidelberger Firma Aleph Alpha, benachteiligen.
Mehr Transparenz in der digitalen Lieferkette gefordert
„Es braucht mehr Balance“, vermittelt Pascal Beerlink, KI-Referent beim IT-Branchenverband Bitkom. Die Regulierung sollte sich auf die Transparenz innerhalb der Lieferkette konzentrieren, fordert er. Alle Teilnehmer der Lieferkette sollen relevante Informationen teilen, die Entwickler der Basismodelle den Anwendern zum Beispiel „Segelanweisungen“ geben, wie es Philipp Hacker von der Europa-Universität Viadrina in Frankfurt/Oder formuliert.
Die Basismodelle sollten nur „Minimalauflagen“ erfüllen, sagt der Professor für Recht und Ethik der digitalen Gesellschaft. Dazu zählt Hacker repräsentative Trainingsdaten, um Diskriminierung einzelner Gruppen vermeiden, beispielsweise alleinerziehende Mütter. Das Risikomanagement sieht er bei jenen, die aus Basismodellen Hochrisikoanwendungen bauen. Denn sonst seien zu viele hypothetische Risikoszenarien zu berücksichtigen, meint Hacker.
Was ist KI? Ringen um die Definition
Ein weiterer Streitpunkt ist die Definition von „KI“ im AI Act. Das EU-Parlament und Verbraucherschützer fordern eine breite Definition, die sich nicht auf bestimmte Arten von KI beschränkt. Eine „technologieneutrale“ Definition rüste das KI-Gesetz für künftige Entwicklungen von KI-Systemen, schreibt die Verbraucherorganisation Beuc.
Industrievertreter drängen auf eine enge Definition, die nur das aktuell meist genutzte „maschinelle Lernen“ umfasst und etwa Logik-basierte KI-Methoden ignoriert. Sonst drohe der AI Act zu einer „erweiterten Softwareregulierung“ zu werden, schreibt der KI-Bundesverband. Die Marktführerschaft von Big Tech aus den USA und China wäre dann für europäische Unternehmen kaum noch angreifbar, da ihnen die Regeln den Markteintritt erschweren würden. Europa drohe in eine „gefährliche“ Abhängigkeit zu geraten.
Wie die drei Gesetzgebungsorgane der EU die Widersprüche auflösen wollen, bleibt abzuwarten, bis das KI-Gesetz vorliegt.
Dies ist die Kurzversion des Artikels „Tauziehen um die europäischen Regeln für künstliche Intelligenz“, der am 11.9.2023 bei Riffreporter erschienen ist.