zum Hauptinhalt
Ein verantwortungsvoller Umgang mit KI bedeutet für Julia Stoyanovich auch, die Verantwortung bei den Menschen zu belassen.

© Falaah Arif Khan

Anzeige

Weit mehr als ein bloßes Werkzeug: Wie KI verantwortungsvoll eingesetzt werden kann

Vor zehn Jahren war Künstliche Intelligenz eine Nischentechnologie. Heute sitzt sie in Klassenzimmern, Kliniken oder Amtsstuben. Welche Herausforderungen ergeben sich daraus?

Von Julia Stoyanovich

Stand:

2016 galten selbstfahrende Autos oder smarte Assistenten als neue Entwicklungen im Bereich der Künstlichen Intelligenz. 2025 ist die wichtigere Neuigkeit unspektakulärer: KI hat den Alltag erobert. Sie ist inzwischen zuverlässig genug für Alltagswerkzeuge und so weit verbreitet, dass sie Bereiche wie Arbeit, Bildung, Gesundheit und Verwaltung prägt. Diese allgemeine Verfügbarkeit – und nicht die bloße Existenz cleverer Algorithmen – verleiht KI 2025 ganz neue Relevanz.

KI ist nicht neu. Es gibt seit Langem autonome Systeme, die wir technisch verstehen und überprüfen können. Man denke an Saugroboter, die zuverlässig Zimmer reinigen, an Schachprogramme, die Großmeister schlagen, oder an maschinelle Übersetzung, die sich vom Witzobjekt zur praktischen Hilfe entwickelt hat. Alle diese Systeme weisen drei Gemeinsamkeiten auf: Erstens adressieren sie einen klaren Verbesserungsbedarf, zweitens wissen wir, wie man sie herstellt, und drittens können wir prüfen, ob sie tatsächlich funktionieren. Dies sind auch die wesentlichen Charakteristika von verantwortungsvoller KI.

Für einen verantwortungsvollen Einsatz von KI braucht es aber mehr: menschliche Bereitschaft. Nutzende und Betroffene – etwa Behandelnde, Lehrkräfte und Patienten – müssen die Ergebnisse der KI-Modelle verstehen, einordnen und bei Bedarf überstimmen können. Und sie müssen wissen, wann KI im Spiel ist.

Seit 2016 charakterisieren drei Merkmale den Einsatz von Künstlicher Intelligenz. Erstens „Skalierung“: Modelle lernen aus riesigen Datenmengen, übertragen Wissen über Aufgaben hinweg und treiben damit den Einsatz generativer KI für Text, Code, Bild und Audio. Zweitens „Reichweite“: KI ist keine Nischentechnologie mehr, sondern Alltag. Sie formuliert E-Mails, fasst medizinische Notizen zusammen, steuert kommunale Dienste oder unterstützt Lernende. Drittens „Abhängigkeit“: Immer mehr Institutionen vertrauen KI, teilweise zu schnell. So beeinflusst KI heute oft die Verteilung von Aufmerksamkeit, Chancen und Ressourcen.

Weil generative KI heute für viele Menschen nutzbar ist, beeinflusst sie Entscheidungen in der Breite. Daraus ergeben sich zwei neue Herausforderungen, die 2016 noch nicht relevant waren: Menschen benötigen KI-Kompetenz, um die Technologie verantwortlich nutzen, hinterfragen und anfechten zu können, und es bedarf gesellschaftlich ausgehandelter Leitplanken, damit der Einsatz von KI transparent, nachvollziehbar und ausgerichtet an demokratischen Werten bleibt.

Verantwortlich sind Menschen, nicht Maschinen

Verantwortungsvolle KI ist keine intrinsische Eigenschaft von Code; sie muss von Menschen und Institutionen gelebt werden. Menschliche Kompetenz ist zentral: Gerade in Hochrisikobereichen wie der Medizin brauchen Fachkräfte, die KI einsetzen, Wissen über Grenzen, Unsicherheiten und Haftungsfragen. Selbst präzise Werkzeuge scheitern, wenn das medizinische Personal nicht weiß, wann man sich auf sie verlassen kann, wann man gegenprüfen oder sie ignorieren muss. Auch Patient:innen benötigen verständliche Informationen darüber, ob und wozu KI eingesetzt wird oder wie verlässlich sie im konkreten Fall ist. Ohne diese KI-Kompetenz kommt es schnell zu falschem Vertrauen, und neue Ungleichgewichte entstehen.

Wir benötigen Leitplanken, die rechtlich verankert und gelebte Praxis sind.

Julia Stoyanovich, Informatikerin

Wichtig ist auch, dass KI-Systeme rigoros evaluiert werden. Sie sind technische Instrumente und sollten auch wie solche auf Stabilität, Fehlerquote und potenzielle Verzerrungen geprüft werden. Vielversprechende Recruiting-Tools, die für sich in Anspruch nehmen, anhand von Lebensläufen auf die Persönlichkeit schließen zu können, versagen in einfachen Tests. Bereits minimale Veränderungen in den Lebensläufen führen zu völlig unterschiedlichen Ergebnissen.

2016 waren KI-Audits, also strukturierte Bewertungen von KI-Systemen, die Ausnahme; 2025 sollten sie Normalfall sein. Denn KI-Vorhersagen wirken immer auch performativ: Schulnoten, die Klassifizierung einer Wohngegend als „Risikoviertel“ oder Instrumente zur Personalgewinnung gestalten die Wirklichkeit. KI-Gestaltung und -Überwachung sind deshalb immer auch gesellschaftliche, nicht nur technische Fragen.

Gesellschaftlich verhandelte Leitplanken

Europa war Vorreiter bei der Aufnahme von KI-Technologien in geltendes Recht und hat risikobasierte Vorgaben sowie Pflichtprüfungen für Hochrisiko-Anwendungen entwickelt. Das ist ein Meilenstein. Aber starre, theoretische Regeln genügen nicht für Systeme, die sich laufend verändern. Wir benötigen Leitplanken, die rechtlich verankert und gelebte Praxis sind: allgemein verständliche, öffentliche Dokumente, die darlegen, wer profitiert, wer die Risiken trägt und welcher Notfallplan gilt – veröffentlicht vor dem Einsatz, aktualisiert nach Zwischenfällen und dauerhaft archiviert. Und wir benötigen strenge, unabhängige Prüfungen: Tests auf Robustheit, Verzerrungen und Missbrauchsmöglichkeiten, einschließlich einer Angriff-Simulation.

Ihre weite Verbreitung macht KI zu einer sozialen Infrastruktur.

Julia Stoyanovich, Informatikerin

Ebenso wichtig ist wirksame gesellschaftliche Beteiligung: Betroffene müssen vor der Einführung von KI-Systemen mit am Tisch sitzen und später Probleme melden können. So entsteht verteilte Rechenschaft: Stellschrauben wie Grenzwerte, Ausnahmen und Eskalationspfade werden sichtbar und öffentlich verhandelbar, statt im Code zu verschwinden.

2016 war KI-Ethik ein Nischenthema. Heute sitzt Künstliche Intelligenz in Klassenzimmern, Kliniken, Kundenservices oder Amtsstuben. Diese Verbreitung macht KI zu einer sozialen Infrastruktur. Europas Stärken sind eine rechtebasierte Governance und die gemeinsame Überzeugung, dass Märkte demokratischen Werten dienen sollten. Nun gilt es, dies auch für generative KI-Systeme zu operationalisieren, deren Verhalten sich mit Daten und Prompts verschiebt. Deshalb gehören Kompetenz und Leitplanken zusammen: Kompetenz ermöglicht souveräne, skeptische Nutzung; Leitplanken machen den KI-Einsatz anfechtbar, revidierbar und fair.

Der Unterschied zur KI ist Humor

Etwas Optimismus darf sein. Wir sagen die Zukunft nicht vorher – wir machen sie gemeinsam und öffentlich. Wir sind nicht bloß Passagiere, sondern die Lokführenden, die auch die Bremsen bedienen. Allzweck-KI wird nur dann Gemeinwohl-KI, wenn Lehrkräfte, Medizinerinnen, Studierende, Staatsbedienstete, Unternehmer und Bürger:innen die Regeln gemeinsam schreiben und fortentwickeln.

Der Umgang mit KI darf auch Spaß machen: Blick in die animierte Kurzgeschichte „Happy Birthd-AI“ aus Julia Stoyanovichs Lehrtätigkeit.

© Julia Stoyanovich

Und das darf Spaß machen. Der Unterschied zwischen uns und KI ist Humor: Wir können reflektieren – und über uns lachen. Humor beruhigt, nimmt den Druck aus dem KI-Hype, schafft Raum fürs Lernen. Ich selbst nutze Humor im Rahmen der KI-Kompetenzbildung: Ein guter Scherz kann wichtige Lehren über Fehlerquellen und Unsicherheiten transportieren und verdeutlichen, warum „Frag die KI“ kein Governance-Plan ist. Spielerische Materialien, Comics oder Kurzgeschichten ermuntern Menschen, KI-Systeme auszuprobieren, Stolperstellen zu erkennen und die Orientierung zu behalten.

Wer jetzt Lust bekommen hat, den spielerischen Umgang mit KI zu testen, kann einen Blick auf die animierte Kurzgeschichte „Happy Birthd-AI“ (https://r-ai.co/birthd-ai) werfen, die im Rahmen meiner Lehrtätigkeit entstanden ist. Denn am Ende lautet die Frage nicht: „Kann die KI das?“, sondern: „Wie sollten wir das tun – gemeinsam mit der KI?“

Dieser Essay greift Ideen aus Julia Stoyanovichs kommenden Lehrbuch zu verantwortungsvoller KI auf.

Zur Startseite

console.debug({ userId: "", verifiedBot: "false", botCategory: "" })