zum Hauptinhalt
 Humanoid Robot Chalk Board Writing Teacher Humanoid robot in the classroom with a green chalk board. 3d illustration.

© imago images/Alexander Limbach

Künstliche Intelligenz braucht Grenzen: Der Zeitpunkt für Regeln ist jetzt

Was darf Künstliche Intelligenz? Diese Frage darf nicht profitorientierten Unternehmen überlassen werden. ChatGPT ist ein Weckruf.

Ein Kommentar von Maria Fiedler

Es war ein düsterer Brief, den Tesla-Chef Elon Musk und eine Reihe anderer Tech-Größen unterzeichnet hatten. Der Wettbewerb um die Entwicklung von Künstlicher Intelligenz (KI) sei außer Kontrolle geraten. Das Netz könnte mit Fake News und Propaganda geflutet, sogar erfüllende Jobs wegrationalisiert werden. Wir könnten die Kontrolle über unsere Zivilisation verlieren. Es brauche mehr Regulierung.

Wenn Unternehmer und KI-Experten eine derartige Dystopie heraufbeschwören, ist das einerseits kontraproduktiv. Angst sollte die Debatte über Künstliche Intelligenz nicht bestimmen. Im Vordergrund sollte die Vision stehen: Wie KI uns produktiver und unser Leben besser machen kann.

Naivität ist fehl am Platz

Gleichzeitig haben sie Recht. Naivität ist fehl am Platz. Die Veränderungen, die durch Künstliche Intelligenz auf uns zukommen, werden so umfassend sein, dass wir sie jetzt noch gar nicht ermessen können. Deswegen ist die Forderung nach Regulierung absolut richtig.

ChatGPT ist ein Weckruf. Das System, das im vergangenen November vorgestellt wurde, machte Schlagzeilen, weil es Texte produzieren kann, die sich lesen, als wären sie von einem Menschen geschrieben. Längst löst ChatGPT auch Medizin-Examen, kann in Sekunden eine funktionierende Website programmieren oder eine Klageschrift verfassen. Zwischen den großen Technologie-Unternehmen Google und Microsoft ist ein Wettlauf um die Vorherrschaft bei Künstlicher Intelligenz ausgebrochen. Auch China versucht mit allen Mitteln aufzuholen.

Doch nach welchen moralischen Standards soll Künstliche Intelligenz agieren? Welche Aufgaben darf sie erfüllen, welche nicht? Wie wird verhindert, dass sie lügt, Straftaten begeht oder komplett auf eigene Faust handelt? Welche ungewollten gesellschaftlichen Auswirkungen durch Künstliche Intelligenz müssen verhindert werden? Ist es akzeptabel, dass Menschen Fähigkeiten verlieren, wenn diese künftig von einer KI übernommen werden? Die Antworten auf diese Fragen dürfen nicht privaten Unternehmen mit wirtschaftlichen Interessen überlassen werden. Auch sollten sich Unternehmen nicht selbst kontrollieren.

Dass Handlungsbedarf besteht, hat die Politik bereits seit Längerem verstanden. Auf EU-Ebene gibt es eine KI-Strategie. Es ist eine KI-Verordnung in Planung. Doch bis diese in Kraft tritt, könnten noch Jahre vergehen. So ist sogar die Definition von KI noch strittig. Oder die Frage, welche Arten von KI als risikobehaftet gelten sollen.

Es gibt in der Politik Bedenken, zu stark einzugreifen und damit Innovation abzuwürgen. Digitalminister Volker Wissing warnte nach einem Besuch bei Open AI, dem Entwickler von Chat GPT, vor überzogener Regulierung. Und das, obwohl er bereits die neueste, noch leistungsstärkere Version GPT4 bestaunen durfte.

Politik kann derzeit nicht mithalten

Die Debatte ist bereits jetzt kleinteilig und die Geschwindigkeit von Politik überhaupt nicht in der Lage, mit der sich stark beschleunigenden Entwicklung hochkomplexer KI-Systeme mitzuhalten. In dem offenen Brief warnen KI-Experten davor, dass nicht einmal die Entwickler dieser Systeme sie noch verstehen oder verlässlich kontrollieren könnten.

Die Regulierung sollten nicht einzelne Staaten für sich klären, auch die EU-Ebene greift zu kurz. Es handelt sich um nicht weniger als eine Menschheitsaufgabe. Und diese muss international gelöst werden. Es ist unrealistisch, die KI-Entwickler zunächst zu einer selbst auferlegten Pause zu bewegen – der Wettbewerbsdruck ist zu groß. Deshalb muss die Staatengemeinschaft zügig handeln.

Ein angemessener Ausgangspunkt könnte eine internationale Konferenz sein, zu der Experten, Politiker und Unternehmen aus der ganzen Welt eingeladen sind. Dabei sollte es nicht um kleinteilige Regulierung gehen, sondern tatsächlich um die großen Fragen. Sicher kann so ein Format nicht auf einen Schlag alle Probleme lösen. Doch nach der Vorstellung der neuesten Version von ChatGPT ist es nötiger denn je. Künstliche Intelligenz braucht Grenzen. Nur dann kann sie die Welt zum Besseren verändern.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false