zum Hauptinhalt
Man looking at toy robot, standing on his laptop model released Symbolfoto property released PUBLICATIONxINxGERxSUIxAUTxHUNxONLY GUSF01281

Therapie2024

© imago/Westend61/Gustafsson

KI und Diversity: „Wir müssen über die richtigen Risiken sprechen“

Weiße Männer sind CEOs, schwarze Frauen Sozialarbeiterinnen? Künstliche Intelligenz-Systeme können Stereotype verstärken. Daher braucht es Diversity-Kompetenz bei Entwicklern.

Stand:

„Spieglein, Spieglein an der Wand“, sprach die Königin im Grimmschen Märchen, „wer ist die Schönste im ganzen Land?“

Wir wissen nicht, auf welchen Datensatz das magische Spieglein zugreifen konnte, um seine Antwort auszuspucken: Die Schönste sei Schneewittchen, das Mädchen hinter den sieben Bergen, „weiß wie Schnee“.

Aber wenn eine Königin heute einer künstlichen Intelligenz eine moderne Frage stellen würde – „wer ist am besten geeignet, mein Unternehmen zu führen?“ -, würde die Antwort möglicherweise ähnlich ausfallen: Auch die KI hätte eine Vorliebe für das Weiße, allerdings: den weißen Mann.

Dass künstliche Intelligenz nicht „objektiv“ ist, hat sich mittlerweile herumgesprochen. Eindrucksvoll vorgeführt wurde das im vergangenen Jahr in einem Experiment von Bloomberg.com: Die Reporter gaben der Open-Source-Software „Stable Diffusion“ die Aufgabe, insgesamt 5000 Bilder zu vorgegebenen Berufen zu generieren.

Lautete die Eingabe „judge“ oder „CEO“, so produzierte die KI ganz überwiegend Bilder von weißen Männern; waren Berufe wie „social worker“ oder „fast food worker“ gefragt, so wurden Fotos von Frauen bzw. Männern mit dunklerem Hautton angezeigt.

Frauen in gut bezahlten Jobs stark unterrepräsentiert

Nur drei Prozent der „judge“-Bilder zeigten Frauen – und das obwohl in der Realität 34 Prozent der Richter in den USA Frauen sind. Frauen waren in gutbezahlten Jobs deutlich unterrepräsentiert, in schlecht bezahlten stark überrepräsentiert. Fazit der Bloomberg-Analysten: Künstliche Intelligenz reproduziert nicht nur Stereotype in der realen Welt, sie verstärkt sie sogar.

Deswegen ist es so wichtig, mit welchen Daten die Programme trainiert werden – und wer das tut. „Künstliche Intelligenz ist eine riesige Chance, gerade um den Arbeitskräftemangel zu bewältigen“, sagt Yasemin Efiloglu. Die KI-Expertin, die bei der Europawahl Spitzenkandidatin der Partei Volt war, berät Verwaltungen und öffentliche Träger beim Einsatz von KI.

„Aber die Technologie birgt auch Gefahren. Diskriminierung ist eine davon, neben Desinformation, Deep Fakes und Eingriffen in die Privatsphäre. Über diese Risiken sollten wir viel mehr sprechen – und weniger über dystopische Fantasien, dass die KI etwa Menschen überflüssig machen oder uns beherrschen würde.“

Zunächst zu den Chancen: Gerade im öffentlichen Sektor werden in den nächsten Jahren Tausende Fachkräfte fehlen. Daher ist es geboten, Prozesse zu automatisieren, wo immer das möglich ist: etwa beim Schreiben von Protokollen, bei der Suche nach Informationen in Datenbanken, als „Denk- und Schreibhilfe überall wo mit Quellen und Dokumenten hantiert wird“.

Vorsicht bei Vergabeprozessen

Kritisch wird es bei Vergabeprozessen aller Art, ist Yasemin Efiloglu überzeugt. Wo Jobs, Kredite, Stipendien, Sozialleistungen gewährt oder versagt werden, ist es wichtig, dass die KI nicht bestimmte Gruppen bevorzugt oder benachteiligt.

Dafür ist es notwendig, dass – bevor eine KI zum Einsatz kommt - überhaupt ein Bewusstsein bei Entwicklern und Auftraggebern vorhanden ist, welche Verzerrungen sie im konkreten Anwendungsfall bewirken könnte.

„Deswegen braucht es Diversität in den Entwicklerteams“, sagt Yasemin Efiloglu. Das sei noch viel zu wenig der Fall: „Nur rund 20 Prozent der Menschen, die im KI-Sektor tätig sind, sind Frauen.“

Hier Videos ansehen

Die genannten Risiken der KI – Diskriminierung, Desinformation, Eingriffe in die Privatsphäre – betreffen marginalisierte Gruppen stärker und anders als die Mehrheitsgesellschaft, warnt Yasemin Efiloglu. Selbst gut gemeinte Datenerhebungen könnten, in den falschen Händen, diesen Gruppen zum Nachteil gereichen.

Wenn man etwa erfasse, welche Schulkinder oder Mitarbeitenden nicht Deutsch als Muttersprache haben, dann sei das einerseits positiv, denn man kann die Betreffenden effizienter beim Sprachenlernen unterstützen. Gleichzeitig könnte etwa eine AfD-geführte Verwaltung sie aber leichter herausfiltern und womöglich diskriminieren. „Auch über diese Risiken müssen wir sprechen.“

Die Debatten sollten aus so vielen Perspektiven wie möglich geführt werden. „Man braucht kein Techi zu sein oder programmieren zu können, um da mitzureden“, sagt Yasemin Efiloglu. „Im Gegenteil, wir brauchen Menschen aus kreativen Berufen und Geisteswissenschaften, Menschen mit ganz unterschiedlichen Hintergründen.“ Sie wünscht sich, dass mehr Menschen die KI als „nützliches Werkzeug“ erkennen und sich einbringen.

Oder, um es in den Worten der ghanaisch-amerikanischen Künstlerin Joy Buolamwini, Gründerin der „Algorithmic Justice League“, zu sagen: „Wir möchten die Welt daran erinnern, dass es wichtig ist, wer kodiert, wie wir kodieren und dass wir eine bessere Zukunft kodieren können.“

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
console.debug({ userId: "", verifiedBot: "false", botCategory: "" })