zum Hauptinhalt
 Humanoid Robot Chalk Board Writing Teacher Humanoid robot in the classroom with a green chalk board. 3d illustration.

© imago images/Alexander Limbach

Überregulierung versus Unwirksamkeit: Wie soll Europa mit Künstlicher Intelligenz umgehen?

Künstliche Intelligenz entwickelt sich rasant – zu rasant? Forderungen nach einer KI-Entwicklungspause werden lauter. Die EU versucht bereits seit Jahren, eine Regelung zu finden.

Die Entwicklung im Bereich Künstliche Intelligenz (KI) ist atemberaubend. Seitdem ChatGPT Millionen Nutzer verblüfft, kommen fast täglich neue Tools auf den Markt. Microsoft und Google haben ein regelrechtes KI-Wettrennen gestartet. Die Programme können auf Knopfdruck komplexe Texte und auch täuschend echt wirkende Bilder erzeugen. Viele sorgen sich vor einer Flut an Desinformation und anderen Problemen.

Auch Tesla-Chef Elon Musk, Apple-Mitgründer Steve Wozniak, KI-Pionier Yoshua Bengio und mehr als 2800 weitere Unterzeichner eines offenen Briefs, der eine neue Debatte angestoßen hat. Sie fordern ein KI-Entwicklungsmoratorium, um die Auswirkungen und Risiken zu diskutieren und Regeln für den Umgang festzulegen.

Ob wie vorgeschlagen ein halbes Jahr reicht, ist jedoch fraglich. Immerhin arbeiten die Verantwortlichen in der Europäischen Union und ihren Mitgliedstaaten schon seit zwei Jahren an einem KI-Gesetz. Der sogenannte AI Act – wobei AI für Artificial Intelligence steht – soll der erste umfassende Rechtsrahmen für Künstliche Intelligenz weltweit werden. Die EU verfolgt dabei einen risikobasierten Ansatz: Je gefährlicher eine KI-Anwendung ist, desto strenger sind die Regeln.

Ich setze mich dafür ein, dass eine abwehrende, überbordende Regulierung, die KI-Lösungen verhindern will, in Europa keine Mehrheit findet.

Volker Wissing (FDP), Bundesminister für Digitales und Verkehr 

Dabei gilt beispielsweise die Nutzung von KI im Personalmanagement oder bei kritischen Infrastrukturen als hochriskant. Dort sollen strenge Qualitäts- und Transparenzanforderungen erfüllt sowie Zulassungsverfahren durchlaufen werden. Auch Verbote sind geplant, etwa bei biometrischer Überwachung oder sogenannten Social-Scoring-Systemen, die wie in China das Sozialverhalten der Bevölkerung kontrollieren und mit Punkten bewerten.

Möglicher Verhandlungsabschluss im Mai

Mit ihren Regulierungsbemühungen betreten Kommission, EU-Parlament sowie die zuständigen Ministerien der Mitgliedsstaaten Neuland. Es gibt keine Blaupause und so sind in der Debatte schnell zwei Pole entstanden: Einerseits die Sorge, zu lasche Regeln könnten die Verordnung unwirksam machen. Andererseits die Befürchtung, zu strenge Regeln könnten zu einer Überregulierung führen, die die KI-Entwicklung in Europa abwürgt. „Ich setze mich dafür ein, dass eine abwehrende, überbordende Regulierung, die KI-Lösungen verhindern will, in Europa keine Mehrheit findet“, hatte auch Digitalminister Volker Wissing (FDP) dem Tagesspiegel gesagt.

Der Europäische Rat hat seine Position Ende vergangenen Jahres eingetütet – zumindest vorläufig. Im Parlament halten die Debatten jedoch noch an und drehen sich größtenteils noch um sehr grundlegende Fragen: Welche KI-Definition wird der Verordnung zugrunde gelegt? Wie kann der Hochrisiko-Bereich sinnvoll abgegrenzt werden? Aktuell peilen die zuständigen Berichterstatter einen Verhandlungsabschluss im Mai an. Anschließend könnte der Trilog zwischen Kommission, Parlament und Rat beginnen. Auch der wird nicht einfach, denn während der Rat der Mitgliedsstaaten die Vorlage der Kommission lockern will, streitet die Mehrheit der Abgeordneten für strengere Regeln.

Und als wäre das nicht alles schon kompliziert genug, kommen nun auch noch die Entwicklungen um generative KI ins Spiel – also Systeme, die wie ChatGPT Texte generieren oder aus Texten Bilder und Videos entstehen lassen. Im EU-Parlament ist ein heftiger Streit darüber entbrannt, wie solche Anwendungen im AI Act berücksichtigt werden können. Die einen betonen vor allem die Gefahren, etwa dass Chatbots für die Verbreitung von Desinformation genutzt werden könnten – und fordern, sie in die Hochrisiko-Liste aufzunehmen. Andere haben vor allem den KI-Standort Europa im Blick und plädieren dafür, generative KI gänzlich aus dem Regelwerk auszuklammern.

Es sei auch wichtig, die Pläne zur KI-Regulierung international abzustimmen, sagt Antonio Krüger, Chef des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). „Ich hoffe, dass man den offenen Brief als Weckruf versteht“, sagt Krüger. Nicht nur, um die neuen Entwicklungen zu regulieren, sondern vor allem, um Initiativen für ein großes europäisches Sprachmodell aufzugreifen. „Und mit aufgreifen meine ich finanzieren.“ Denn über die nötige Rechenleistung, um solche KI-Systeme zu trainieren, verfügen bislang nur die großen US-Tech-Konzerne. Das DFKI und der KI-Bundesverband fordern daher seit Langem ein gemeinsames KI-Rechenzentrum, indem Wissenschaft und Unternehmen europäische Modelle entwickeln können. Finanziert werden könnte das über das geplante Digitalbudget, falls Finanzminister Christian Lindner (FDP) es freigeben sollte.

Was die Regulierung generativer KI angeht, verhält sich die Bundesregierung abwartend. Man will sehen, wie sich das EU-Parlament positioniert, hieß es vergangene Woche gegenüber dem Digitalausschuss des Bundestages. In den anschließenden Trilog-Verhandlungen will die Ampel-Koalition ohnehin noch mal versuchen, Einfluss zu nehmen.

Denn dem Ratskompromiss hatte man im Dezember nur zähneknirschend zugestimmt. Deutschland tut sich seit jeher schwer, die Ausgestaltung des AI Acts aktiv mitzugestalten. Denn der Riss zwischen der Sorge um Unwirksamkeit und jener um Überregulierung geht auch durch die Koalition. Das war zu GroKo-Zeiten nicht anders.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false