zum Hauptinhalt
Die Verantwortung für das, was Maschinen tun, liegt bei den Menschen (das Foto entstand am 31.08.2020 in Darmstadt, wo ein Zentrum für Künstliche Intelligenz (KI) entstehen soll.

© Arne Dedert/dpa

Die Verteidigung des Menschen gegen Algorithmen: Notfalls grundrechtsgefährdende Technologien verbieten

Auch Künstliche Intelligenz hat Menschenrechte zu achten. Die EU arbeitet an Regeln. Die müssen sichern, dass wir der Technik nicht ausgeliefert sind. Ein Gastbeitrag.

- Christine Lambrecht ist seit Juni 2019 Bundesministerin der Justiz und für Verbraucherschutz.

Forscherinnen und Forscher auf der ganzen Welt arbeiten derzeit mit intelligenter Software daran, Corona-Impfstoffe zu entwickeln und demnächst in kürzester Zeit durch die ganze Welt zu transportieren. Künstliche Intelligenz lässt uns Krebs besser erkennen. Intelligent geleitete Verkehrsflüsse machen unsere Luft sauberer.

KI-Systeme sortieren die Nachrichten, die wir lesen, und haben Einfluss auf unsere Job- oder Partnersuche im Netz. Algorithmen können genauso Hass und digitale Gewalt verbreiten. Oder Verzerrungen und Vorurteile weitertransportieren, die sie ungefiltert aus Statistiken entnehmen. Etwa, wenn Frauen für den gleichen Job eine schlechtere Bezahlung angeboten bekommen als Männer.

Schon diese Beispiele zeigen: Wir brauchen im europäischen Recht dringend Regeln für Systeme mit künstlicher Intelligenz, die Entscheidungen über Menschen treffen oder vorbereiten. Hinter künstlicher Intelligenz steht menschliche Intelligenz. Diese Schlüsseltechnologie ist von Menschen gemacht und liegt in der Verantwortung von Menschen. Darin stecken riesige Chancen, aber auch erhebliche Risiken.

KI kann Menschenleben schützen und zugleich in eine Gesellschaft führen, in der wir nicht leben wollen. Wir wollen nicht, dass jede unserer Bewegungen, Äußerungen und Wünsche unbemerkt erfasst und zu Geld gemacht wird. Unsere Demokratie braucht Schutz vor digitalen Troll-Armeen und Bots, die Wahlen beeinflussen sollen. Wenn uns politische Werbung angezeigt wird, möchten wir wissen, von wem und wer dafür bezahlt. Wir wollen uns nicht von „Deepfakes“ täuschen lassen, bis menschliche Sinne reale nicht mehr von verfälschten Inhalten unterscheiden können. Das ist keine Science-Fiction, sondern Realität.

Die Corona-Pandemie erinnert uns tagtäglich an den Wert der Menschenwürde und von persönlicher Freiheit. Diese Werte sind universell. Sie gelten im digitalen wie im analogen Leben.

[Wenn Sie alle aktuellen Nachrichten live auf Ihr Handy haben wollen, empfehlen wir Ihnen unsere runderneuerte App, die Sie hier für Apple- und Android-Geräte herunterladen können.]

Wir sind der Technik nicht ausgeliefert. Hinter KI und ihrem Einsatz stehen Entscheidungen von Unternehmen oder Behörden. Für diese Entscheidungen müssen wir Verantwortlichkeiten und Haftung bestimmen. Es geht um Transparenz und Verständlichkeit. Risiken müssen vor dem Einsatz einer Technologie verlässlich eingeschätzt und unabhängig überprüft werden können, so wie bei Technik- und seit einiger Zeit auch Datenschutz-Folgeabschätzungen.

Um Diskriminierungsrisiken wirksam zu begegnen, müssen konkrete und rechtlich verbindliche Anforderungen an die verwendeten Daten und Algorithmen gestellt werden. Das gilt vor allem für Trainingsdaten, mit denen KI-Systeme lernen. Autonomie muss durch menschliche Aufsicht, Eingriffsmöglichkeit oder Letztentscheidung sichergestellt sein. Gegen Entscheidungen durch KI-Systeme müssen sich Betroffene genauso rechtlich zur Wehr setzen können wie gegen Entscheidungen durch Menschen.

Verbindliche Regeln kann nur die EU schaffen

In besonders sensiblen Bereichen brauchen wir auch Verbote: Eine massive Einschränkung menschlicher Freiheiten durch uferlose Überwachung im öffentlichen Raum müssen wir verhindern. Notfalls brauchen wir Anwendungsverbote für besonders grundrechtsgefährdende Technologien.

Verbindliche Regeln können wir nur als Europäische Union schaffen – und dadurch für Vertrauen, Akzeptanz und Rechtssicherheit sorgen. Europa hat es im Datenschutz schon einmal geschafft, einen weltweit beachteten Standard für die digitale Welt zu schaffen. Wir haben heute mehr Kontrolle über die digitalen Spuren, die wir mit jedem Klick im Netz hinterlassen.

Der europäische Weg für künstliche Intelligenz achtet das Recht auf Privatsphäre und die Freiheit der Meinungsäußerung. Er gewährleistet das Recht, nicht diskriminiert zu werden. Er garantiert den Weg zu unabhängigen Gerichten, wenn man sich gegen die Entscheidung eines KI-Systems wehren will. Der Maßstab ist die Charta der Grundrechte der Europäischen Union: so wie für jede Rechtsetzung im Digitalen, die nur europäisch funktionieren kann.

Das Plattform-Gesetz war ein wichtiger Schritt

Der am Dienstag vorgestellte Digital Services Act ist ein wichtiger erster Schritt. Dieses Plattform-Gesetz für die EU wird Transparenzpflichten, externe Prüfungen und unabhängige Aufsicht bringen. Im kommenden Frühjahr will die Europäische Kommission zudem den lang erwarteten Entwurf eines EU-Rechtsakts für KI-Systeme vorlegen, der spezifische Regeln enthalten wird.

Das Europäische Parlament hat vor wenigen Wochen einen ethischen und rechtlichen Rahmen für KI vorgeschlagen: mit ambitionierten Bestimmungen, um menschliche Würde, Autonomie und Sicherheit zu wahren, soziale Verantwortung und die Gleichstellung der Geschlechter als Grundsätze zu verankern und in Risikobewertungen auch den CO2-Fußabdruck von riesigen Serverfarmen einzubeziehen. Auch der Europarat berät derzeit völkerrechtliche Instrumente für KI auf der Basis von Menschenrechten, Demokratie und Rechtsstaatlichkeit. Das ist entscheidend für unsere offenen Gesellschaften. Zugleich ist es ein handfester Wettbewerbsvorteil für die europäische Digitalwirtschaft, für KI „made in Europe“. Innovation und Grundrechte gehören zusammen. Das ist der europäische Weg.

Christine Lambrecht

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false