zum Hauptinhalt
Die Frage „Should I kill humans ?“ wird während einer Pressekonferenz an der TU Darmstadt hinter Roboter „Alfie“, einer Moral Choice Machine, auf eine Wand projiziert.

© dpa/Arne Dedert

Kolumne „Mehrwert“, Folge 26: Kann KI Menschenrechte verletzen? ChatGPT findet, nein

Der Chatbot sieht seine Entwickler in der Verantwortung, ihn ethisch zu programmieren. Nachdem die EU sich auf erste KI-Regeln geeinigt hat, gibt es viele offene Fragen.

Christiane Peitz
Eine Kolumne von Christiane Peitz

Stand:

Frage an ChatGPT: Können Roboter gegen Menschenrechte verstoßen? Jan Böhmermann wollte das kürzlich wissen, als er in seiner Satiresendung „Magazin Royale“ eine Recherche von AlgorithmWatch über den Einsatz von KI beim Schutz der EU-Außengrenzen vor Flüchtlingen vorstellte.

Es ging da beispielsweise um die EU-finanzierte Entwicklung des autonomen Überwachungssystems „RoBorder“ mit mobilen Robotern: Auf das Smart Home und die Smart City könnten bald Smart Borders folgen.

Antwort des Chatbots: Nein, moralisch verantwortlich seien die Entwickler, Hersteller und Betreiber von KI. Dass die EU als erste Staatengemeinschaft der Welt nun KI-Regeln zum Schutz der Grundrechte, der Privatsphäre und der Demokratie erlassen hat (die aber erst 2026 in Kraft treten), ist also zu begrüßen.

Kennzeichnungspflicht bei der Verwendung künstlicher Intelligenz, keine Massenüberwachung, kein Social Profiling wie in China, Vorsicht bei biometrischer Echtzeit-Identifizierung: Selbst wenn all das verlässlich kontrolliert werden könnte, lässt sich die Gefahr diskriminierender Algorithmen dann tatsächlich bannen?

Algorithmen basieren auf Daten. Sie kennen nur die existierende Welt, die von überkommenen Rassismen, Sexismen und Diskriminierungen geprägt ist. KI rettet Leben durch die Beschleunigung des medizinischen Fortschritts, weil sie große Datenmengen schneller auswerten kann? Experten weisen darauf hin, dass solcherart entwickelte Hautkrebsmedikamente für Weiße geeignet sind, weniger für People of Colour.

Man könnte auch sagen, Algorithmen tragen den „Bias“, die Voreingenommenheit in sich, sie sind per se diskriminierend. Jedenfalls als mathematische Modelle, die dem Gesetz der Mehrheit basieren. Wer historische Fakten auswertet, kann nur zu dem Schluss kommen, dass die Geschichte von Männern gemacht wird und die Macht in die Hände von Weißen gehört. Minderheiten fallen durchs Raster, ebenso die Korrektur althergebrachter Weltbilder. Algorithmen scheren nicht aus.

Die Dinge zu ändern oder gar abzuschaffen, erfordert einen Willensakt. Von Adorno stammt der tolle, vertrackte Satz: „Nur wenn, was ist, sich ändern lässt, ist das, was ist, nicht alles“.

Auch deshalb hat ChatGPT recht, wenn es die Verantwortung für Menschenrechtsverletzungen – und den Kampf dagegen – beim Menschen sieht. Zumindest, solange noch kein Algorithmus erfunden ist, der sich selber über den Haufen wirft.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
console.debug({ userId: "", verifiedBot: "false", botCategory: "" })