zum Hauptinhalt
Technologie wandelt sich – kann der Mensch den Umgang mit künstlicher Intelligenz lernen?

© Hauke-Christian Dittrich/dpa

Existenzielle Bedrohung oder Verheißung?: Was bei der Diskussion um KI schief läuft

Künstliche Intelligenz ist zwar ein Werkzeug, das Fehler hat. Doch Europa hat die Chance, diese Mängel zu beheben. Ein Gastbeitrag.

Obwohl künstliche Intelligenz (KI) eine Technologie ist, mit der Milliarden von Menschen täglich interagieren, wird sie schwer missverstanden. Bislang nimmt die Gesellschaft sie auf eine von zwei Arten wahr. Sie ist entweder eine existenzielle Bedrohung, nur ein paar Codezeilen von der Weltherrschaft entfernt. Diese Ansicht ist geformt durch Science Fiction wie im Film „Terminator“ und durch Menschen wie Elon Musk, die twittern, dass KI eine größere Bedrohung für die Menschheit sei als Atomwaffen. (Ist sie nicht.)

Auf der anderen Seite wird KI als Erlösung wahrgenommen. Optimistische Futuristen und Politiker stellen sich vor, dass KI unser Gehirn verbessert und unser Leben verlängert. Als die Trump-Regierung im Februar ihren KI-Erlass veröffentlichte, prognostizierte sie, dass die KI „das Wachstum der US-Wirtschaft vorantreiben, unsere wirtschaftliche und nationale Sicherheit verbessern und unsere Lebensqualität erhöhen würde.“ Beide Annahmen sind stark vereinfachend. KI ist nicht gut oder böse – sie ist lediglich der nächste Schritt in der Computer-Evolution.

Wir können sie nutzen, um erstaunliche Dinge zu tun: Automatisierte Entscheidungen, Gesichts- und Stimmanalysen, Autos fahren zu lassen. Nichtsdestotrotz ist es nur ein Hilfsmittel, entworfen, entwickelt und verwendet von Menschen. Ein weiterer Fehler bei diesen Annahmen? Sie gehen davon aus, dass Menschen machtlos gegen KI sind. Musk und andere deuten an: „KI wird uns entweder töten oder verhätscheln. Naja. Lasst uns auf Letzteres hoffen.“ Das ist keine hilfreiche Erzählung.

Der Mensch ist das Problem

Wir haben zwar ernst zu nehmende KI-Probleme. Aber: Probleme mit Vorurteilen und Diskriminierung. Probleme mit Demokratie und öffentlicher Debatte. Probleme mit der Konzentration von Unternehmensmacht. Diese Probleme entstehen durch die Art, wie wir KI-Technologien entwickeln und nutzen. Wir benötigen mehr Menschen – Verbraucher, Juristen, Journalisten – um das anzuerkennen und diese Klischees zu beenden. Wenn KI vereinfacht oder missverstanden wird, können wir die Dinge nicht verbessern oder in Ordnung bringen sobald sie schief gehen.

Ein Beispiel: Das heutige Machine Learning (eine Art von KI) hat das Potenzial, menschliche Vorurteile zu erben. Das liegt daran, dass sich die Voreingenommenheit der Menschen in die Datensätze einschleichen kann, die die Weltanschauung einer KI beeinflussen.

Letztes Jahr haben wir erfahren, dass Amazon einen Einstellungsalgorithmus plant, der Männern gegenüber Frauen bevorzugt. Das war nicht deshalb so, weil der Code sich dafür entschieden hatte, frauenfeindlich zu sein. Der Grund war, dass der Code die historischen, diskriminierenden Einstellungspraktiken von Menschen erlernte. Tech-Unternehmen sind homogen: viele junge, weiße Männer. Wenn eine KI anhand der Lebensläufe vorhandener Mitarbeiter geschult wird, sucht sie nach mehr davon.

Ein anderes Beispiel: KI kann gefährliche Fehlinformationen verstärken. Plattformen wie Facebook und YouTube werden von KI-Empfehlungsmaschinen unterstützt, die entscheiden, welche Inhalte Milliarden von Menschen sehen. Diese KI soll die Leute auf der Plattform halten, damit sie mehr Werbung sehen oder mehr kaufen. Ziemlich schnell lernt die KI, dass Empörung und Lärm - wie etwa Verschwörungstheorien und Hassreden - die Leute weiterhin scrollen lassen.

Viel Macht in wenig Händen

Es ist klar, dass menschliche Entscheidungen darüber, welche Daten zur Übung verwendet werden sollen oder welchen Regeln die Maschinen folgen, Einzelpersonen und der Gesellschaft schaden können. In dem Maße, dass KI zu einem allgegenwärtigen Teil unserer digitalen Welt wird, werden weitere Dinge schief gehen. Die Aufgabe wird darin bestehen, diese Technologie unter Berücksichtigung dieser Risiken verantwortungsbewusst zu gestalten, zu verwenden und zu steuern.

Damit bleibt ein letztes zu diskutierendes Problem: Wir verlassen uns auf nur neun Unternehmen auf der ganzen Welt, um die Richtung der KI zu „lenken“. KI erfordert eine beträchtliche Rechenleistung und Trainingsdaten. Im Moment gibt es weniger als zehn Unternehmen - alles gewinnorientierte Firmen -, die beide Bestandteile aufweisen.

Die Autorin Amy Webb nennt sie "The Big Nine" („Die großen Neun“): Amazon, Google, Facebook, Tencent, Baidu, Alibaba, Microsoft, IBM und Apple. Darüber hinaus repräsentieren diese Unternehmen nur zwei Länder: Amerika und China.

Diese neun Unternehmen gestalten die Zukunft von KI; wie sie trainiert wird, wie sie genutzt wird, wann sie eingesetzt wird. Aufgrund der übergroßen Rolle von KI in unserem Leben gestalten diese Unternehmen gleichzeitig auch die Zukunft der digitalen Gesellschaft.

Sollten nicht demokratische Regierungen, die Zivilgesellschaft, Bildungseinrichtungen und kleinere Start-ups in anderen Regionen die Zukunft der digitalen Gesellschaft mitformen? Die Antwort ist, natürlich: Ja. Und damit anfangen können sie dadurch, dass sie die KI-Klischees gemeinsam ablegen und sich darauf konzentrieren, wie der Mensch die Dinge in eine bessere Richtung lenken kann.

Der KI vertrauen

Wie würde das aussehen? Es könnte viele Formen annehmen: die Unterrichtung von Studenten im Bereich Ingenieurwissenschaften und Design, um Vorurteilen beim Erschaffen von neuen KI-Systemen aktiv entgegenzuwirken. Der Code, die Daten und die Modelle sollten als „open source“ zur Verfügung gestellt werden, um kleineren Innovatoren zu helfen.

Es sollte mehr in die Aufklärung junger Menschen über die Funktionsweise von KI investiert werden. Unternehmen müssten dazu gedrängt werden, bei KI-Projekten rechenschaftspflichtig und transparent zu sein, insbesondere wenn Anzeichen von Benachteiligung vorliegen. Es gibt nicht die eine Wunderwaffe - es geht darum, dass die Entwickler von Technologien auf Risiken achten und dass Bürger und Regierungen Dinge wie Datenschutz und Sicherheit fordern, wenn KI eingesetzt wird.

Europa ist besonders gut aufgestellt, um diese Dynamik aufzubauen. Die EU hat bei der Umsetzung der Datenschutz-Grundverordnung bereits einen globalen Standard für Privatsphäre und Nutzerrechte festgelegt. Sie hat sich auch dazu bekannt, die Macht der großen Technologieunternehmen in Schach zu halten, einschließlich der Bestrafung einiger von ihnen für wettbewerbswidriges Verhalten. Die Art von Höchststandrads könnte unsere KI-Zukunft in eine bessere Richtung lenken.

Der jüngste Bericht der hochrangigen Expertengruppe der EU über die Leitlinie für eine "Vertrauenswürdige KI" zeigt in die richtige Richtung - oder zumindest auf viele der richtigen Themen. Der Bericht schlägt Leitlinien vor, um Dinge wie menschliches Handeln, Privatsphäre, Transparenz und Vielfalt zu gewährleisten. Allerdings lässt er auch die Dinge auf sich beruhen und beschreibt nur einen lockeren ethischen Rahmen, der die KI-entwickelnden Unternehmen und Forscher leiten soll.

Menschenrechtsgesetze sind grundlegend

Doch es bedarf viel mehr. Wie die Internet-Bürgerbewegung „Access Now“ als Antwort auf den Bericht schrieb: "Die ,Vertrauenswürdige KI‘ hat drei grundlegende Komponenten: Sie sollte rechtmäßig, ethisch und robust sein. Während die Richtlinien für die ,Vertrauenswürdige KI‘ ausführlich über Ethik diskutieren, übersehen sie mindestens eine Schlüsselfrage in Bezug auf Robustheit und lassen die rechtliche Komponente völlig außer Acht". Die bestehenden Datenschutz- und Menschenrechtsgesetze bilden einen Ausgangspunkt für diese Fragen. Von dort aus sollten wir weitermachen.

Damit kommen wir auf die Frage der Klischees zurück. Die Überwindung simpler Erzählungen über „Terminator“ oder eine ach so glänze Zukunft ist entscheidend, wenn wir wollen, dass das KI-gesteuerte Computerwesen wirklich zum Nutzen der Verbraucher eingesetzt wird. Stattdessen müssen wir uns mit den heiklen Fragen befassen, wie man eine Technologie entwickelt, die Menschen und ihre Daten gut behandelt.

Und noch wichtiger ist, dass wir uns der Tatsache stellen müssen, dass wir zu viel Macht in zu wenigen Händen entstehen lassen, sowohl in der KI-Entwicklung als auch auf den Technologiemärkten im Allgemeinen. Das sind keine abstrakten Bedrohungen aus einem Science-Fiction - es sind reale und greifbare Themen, mit denen wir uns heute befassen können.

Mark Surman ist Geschäftsführer von Mozilla.

Mark Surman

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false