Intelligente Systeme : Schutz vor Algorithmen

Mit acht Kriterien sollen Programmierer ebenso sensibilisiert werden wie Anwender. Jetzt wird online darüber diskutiert.

Faktor Mensch. Prozesse werden mit Hilfe von Algorithmen automatisiert. Die Person, die diese programmiert hat, ist oft nicht mehr zu identifizieren. Wer trägt die Verantwortung, wenn etwas schiefgeht? Foto: NicoElNino/iStockphoto
Faktor Mensch. Prozesse werden mit Hilfe von Algorithmen automatisiert. Die Person, die diese programmiert hat, ist oft nicht mehr...Foto: Getty Images/iStockphoto

Es gibt den Pressekodex und den Hippokratischen Eid – aber woran orientieren sich Programmierer und Anwender von Algorithmen? Für sie soll ein Katalog mit Gütekriterien entwickelt werden. Das Projekt #algorules will deshalb einen Gütekriterienkatalog entwickeln, durchgeführt wird das Projekt vom Thinktank iRights.Lab im Auftrag der Bertelsmann Stiftung. Seit Montag können sich alle Interessierten im Rahmen einer Online-Umfrage daran beteiligen. Ziel des Projekts ist, dass Gütekriterien künftig als Referenzpunkt für Beschwerden und Überprüfungen genutzt werden. Sie richten sich an alle Personen, die algorithmische Systeme entwickeln oder anwenden. Dabei geht es um solche Algorithmen, die Einfluss auf das Leben von Menschen haben.

Gerd Billen, Staatssekretär im Bundesministerium der Justiz und für Verbraucherschutz (BMJV) begrüßt das Projekt, „gerade, weil die Zivilgesellschaft hier mitredet“. „Ärzte, Journalisten - sie alle folgen einer festen Ethik, Programmierer aber noch nicht, dabei bestimmen sie genauso unsere Welt mit wie der Chirurg oder Korrespondent“, erklärte Billen. Algorules könne „ein Bekenntnis für Programmierer und Algorithmen-Nutzer werden“. Parallel dazu arbeitet die von der Regierung eingesetzte Datenethikkommission an ethischen Leitlinien und Handlungsoptionen für die Politik. Beide Prozesse könnten sich am Ende einander positiv beeinflussen. „Ich bin froh, dass es viele Engagierte gibt, die die Welt der Algorithmen nicht dem Gewinnstreben allein überlassen“, betonte Billen.

Auch Christiane Wendehorst, Co-Vorsitzende der Datenethikkommission und Präsidentin des European Law Institute, betont, dass Gütekriterien für Algorithmen „unerlässlich“ seien, denn: „Algorithmenbasierte Entscheidungsprozesse bergen Chancen, aber auch Risiken. Es ist wichtig, dass ein gesamtgesellschaftlicher Diskurs geführt wird.“

Für das Projekt #algorules wurden gemeinsam mit Expertinnen und Experten acht Kriterien entwickelt. Mit dabei waren unter anderem die frühere Justizministerin Sabine Leutheusser-Schnarrenberger (FDP), Mario Martini von der Universität Speyer und Mitglied der Datenethikkommission, Ina Schieferdecker von Fraunhofer Fokus und Stefan Ullrich von der Gesellschaft für Informatik.

Die Online-Umfrage, die am Montag gestartet ist und am 21. Dezember endet, soll nun dabei helfen, die bisher entwickelten Kriterien zu präzisieren und praxisnah zu gestalten, erklärt Carla Hustedt von der Bertelsmann Stiftung. Die Teilnehmer beantworten Fragen zu den bisher erarbeiteten Kriterien, können aber auch eigene Vorschläge einbringen. „Wir hoffen, so einen möglichst breiten Einblick in die Entwicklung und Anwendung algorithmischer Systeme zu erlangen und eine Anwendbarkeit und Verbindlichkeit der erarbeiteten Kriterien zu erreichen", betont Hustedt.

Folgende acht Kriterien wurden bisher entwickelt:

1. Kompetenz aufbauen

Wer algorithmische Systeme entwickelt und einsetzt, muss über ein Grundverständnis der Funktionsweise und potenzielle Auswirkungen der Technologie verfügen. Die Weitergabe von individuellem und institutionellem Wissen, aber auch der interdisziplinäre Austausch sind dafür maßgeblich.

2. Verantwortung zuweisen

Für die Wirkungen eines algorithmischen Systems muss eine natürliche Person verantwortlich sein. Die Verantwortung ist zu dokumentieren und die entsprechende Person muss von außen erkennbar sein. Sie muss in der Lage sein, Prozesse umzukehren und Entscheidungen neu zu treffen. Weder kann eine Maschine diese Verantwortung übernehmen, noch darf die Haftung auf Nutzer abgewälzt werden.

3. Ziele und Wirkungen eines Algorithmus müssen nachvollziehbar sein

Vor und während des Einsatzes des algorithmischen Systems muss eine dokumentierte Folgenabschätzung durchgeführt werden. Hierbei sind Risiken für Diskriminierungen und weitere das Individuum und das Gemeinwohl berührende Folgen im Blick zu behalten. Werteabwägungen beim Einsatz von Algorithmen müssen festgehalten werden.

4. Sicherheit gewährleisten

Bevor Algorithmen eingesetzt werden, sind sie in einer geschützten Umgebung zu testen. Es sind sowohl die technische Sicherheit gegenüber externen Angriffen und Manipulationen als auch die Sicherheit der Nutzer zu gewährleisten.

5. Transparenz erhöhen

Der Einsatz eines algorithmischen Systems muss gekennzeichnet sein. Dazu zählt, dass Algorithmen und selbstlernende Systeme mit direkten oder mittelbaren Wirkungen und ihrer Funktionsweise für Menschen intuitiv verständlich gemacht werden. Die zugrundeliegenden Daten müssen klassifiziert und beschrieben sowie die möglichen Auswirkungen in leicht verständlicher Sprache dargestellt werden. Personen, die von der Wirkung eines Algorithmus betroffen sind, können eine qualifizierte und detaillierte Auskunft zu diesen Parametern einfordern. Wenn eine Maschine einen Menschen in Sprache sowie in Art und Weise der Interaktion imitiert, gilt dies in ganz besonderem Maße.

6. Beherrschbarkeit sichern

Dies setzt voraus, dass Menschen in der Lage sind, über den Algorithmus und seinen Einsatz zu entscheiden und ihn nach ethischen Maßstäben zu bewerten. Eine stetige Kontrolle des algorithmischen Systems durch den Menschen ist notwendig, um die Beherrschbarkeit sicherzustellen. Dies gilt insbesondere auch für selbstlernende Systeme. Ist es nicht möglich, eine Anwendung für den Menschen beherrschbar zu machen, ist von einem Einsatz abzusehen.

7. Wirkung überprüfen (lassen)

Dazu gehört die aktive Kontrolle, ob ein Algorithmus gesellschaftliche Grundwerte wie Wertepluralismus, Solidarität, Vielfalt und Teilhabe verletzt. Externe Akteure sollten ebenfalls in die Lage versetzt werden, dies zu überprüfen. Wird eine negative Wirkung festgestellt, müssen die Fehlerursache ermittelt und der Algorithmus entsprechend angepasst werden. Kann der Fehler nicht behoben werden, muss der Einsatz des algorithmischen Systems beendet werden.

8. Korrigierbarkeit herstellen

Wenn die Wirkungen eines Algorithmus dazu führen, dass gesellschaftliche Grundwerte oder die Rechte eines Einzelnen verletzt werden, muss den Betroffenen eine einfache Beschwerdemöglichkeit offenstehen. Die Beschwerde richtet sich an die verantwortliche Person. Diese verpflichtet sich, qualifiziert auf die Beschwerde zu reagieren und Auskunft zu erteilen. Beschwerden und eingeleitete Maßnahmen sind zu dokumentieren. Bei mangelhafter Auskunft oder allgemein vermuteter rechtswidriger Vorgehensweise können dann Schlichtungsstellen eingerichtet werden.

Stefan Ullrich von der Gesellschaft für Informatik ist mit dem bisherigen Arbeitsprozess „sehr zufrieden“. „Ich habe den Eindruck, dass wir gemeinsam ein Dokument geschaffen haben, das nicht nur grundlegende Orientierung in diesem hochdynamischen Feld bietet, sondern auch diskutiert werden kann.“ Der Prozess sei allerdings „nie vollständig abgeschlossen, aber eine erste Version ist dann erreicht, wenn der Katalog auch in der Praxis Anwendung gefunden hat“. sagte Ullrich.

Dieser Text erschien zuerst im Entscheider-Briefing Tagesspiegel Background Digital & KI

Mehr lesen? Jetzt E-Paper gratis testen!

3 Kommentare

Neuester Kommentar