zum Hauptinhalt
Zweierlei Maß. Noch immer haben Schwarze mehr Probleme, einen Kredit zu bekommen als Weiße.

© imago

Intelligente Systeme: Wie Algorithmen lernen

Algorithmen sollen Entscheidungen fairer machen. Doch auch sie lernen nur von Menschen - und konservieren Vorurteile

Von Hendrik Lehmann

„Es ist eine allgemein anerkannte Wahrheit, dass ein Junggeselle im Besitz eines schönen Vermögens nichts dringender braucht als eine Frau.“ Der erste Satz von Jane Austins 1813 erschienenem Roman „Stolz und Vorurteil“ ist für Singles heutzutage obsolet. Heiraten ist kein Statussymbol mehr. Die Zeiten, in denen Frauen zur finanziellen Absicherung einen reichen Junggesellen benötigen, sind längst vorbei.

Allerdings könnten sie finanziell schlechter dastehen – etwa wenn sie bei der Bewerbung um einen Job von Systemen bewertet werden, die auf maschinellem Lernen basieren. So veröffentlichte die Princeton-Informatikerin Aylin Caliskan kürzlich eine Studie, nach der künstlich intelligente Systeme Rassismus und Sexismus reproduzieren. Frauen sah der Algorithmus näher an Blumen und Begriffen wie Krankenschwester und Familie, Männer in der Nähe von Ingenieuren und Wissenschaftlern. Afroamerikanische Vornamen wurden häufiger mit negativen Wörtern verbunden als alteuropäische. Und die Wissenschaftlerin Aniko Hannak präsentierte kürzlich auf der Konferenz re:publica in Berlin Forschungsergebnisse, nach denen die Profile von Frauen auf Jobplattformen niedriger platziert werden als die von gleichqualifizierten Männern.

Krishna Gummadi vom Max-Planck-Institut für Softwaresysteme in Saarbrücken widmet sich seit Jahren den Vorurteilen der Maschinen. „Man muss wissen, dass diese Algorithmen meist lernen, indem sie versuchen, die Entscheidungen von Menschen nachzuahmen.“ Dafür brauchen sie riesige Datenmengen. Im Fall von Caliskan lernte das Verfahren aus Texten im Internet; die Zitate von Jane Austen stehen dort tausendfach. Und sie gehören noch zu den harmloseren. Ein weiteres Beispiel sind Kredite: Algorithmen, die einschätzen sollen, wie kreditwürdig jemand ist, lernen das, indem sie sich die Vergabeentscheidungen von Bankern anschauen. Auch die haben unter anderem nach Alter, Vermögen, Adresse, Geschlecht und Herkunft ausgewählt. In den USA werden oft schwarzen Menschen keine Kredite gegeben. Weil der Algorithmus aber ein Trainingsziel braucht, versucht er, sein Modell so zu optimieren, dass er die gleichen Entscheidungen trifft, die ein Mensch treffen würde.

Was soll nur der Mensch verantworten?

Selbst wenn man ausschaltet, dass der Algorithmus das Kriterium Ethnie oder Geschlecht heranzieht, kann er andere Informationen nutzen. Zum Beispiel die Postleitzahl, die darauf hindeutet, dass in dieser Gegend eine bestimmte Minderheit wohnt. Weil die Systeme selbstständig lernen, ist es schwer, herauszufinden, was sie überhaupt gelernt haben. Gummadi und seine Kollegen versuchen deshalb, Verfahren zu entwickeln, die nicht nur so genau, sondern auch so fair wie möglich sind.

„In den USA gibt es ein System, das die Wahrscheinlichkeit berechnet, ob jemand erneut straffällig wird, wenn er frühzeitig aus der Haft kommt“, erzählt er. Es sollte helfen, Vorurteile von Richtern zu kompensieren. Die Gefangenen sollen in Fragebögen angeben, ob ihre Eltern oder Freunde schon einmal verurteilt wurden. Viele Amerikaner sind der Meinung, dass solche Kriterien nicht herangezogen werden sollten, da man sich seine Eltern nicht aussuchen kann. Andere finden, dass es wichtiger sei, dass das Ergebnis so genau wie möglich ist. Das wirft grundsätzliche Fragen auf: „Welche Teile des Lebens eines Menschen liegen in seiner Verantwortung?“, fragt Gummadi.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false