
© freepik/Bearbeitung Tagesspiegel
KI-Bilder mit Herzschlag: Die Erkennung von Fakes wird immer schwieriger
Deepfake-Videos simulieren inzwischen sogar biologische Merkmale. Das bringt die technische Erkennung an ihre Grenzen.
Stand:
Mit Videofälschungen könnten sich Wahlen manipulieren und womöglich sogar Demokratien destabilisieren lassen. Noch sind KI-generierte „Deepfake“-Videos, bei denen das Gesicht ersetzt wurde, oft mit bloßem Auge erkennbar: durch steife Mimik, unnatürliches Blinzeln oder Beleuchtungsfehler. Für die technische Erkennung gibt es großen Bedarf, schon allein weil alle Politiker betroffen sein dürften – nicht nur Kamala Harris oder Wladimir Klitschko.
Erkennungsprogramme können in gefälschten Aufnahmen nach Biosignaturen suchen – winzigen Signalen, die nur Lebewesen aufweisen. Doch zunehmend halten diese schlechter mit dem technischen Fortschritt mit. Die Deepfakes wiesen inzwischen sogar einen Puls auf, schreibt ein Forschungsteam vom Berliner Heinrich-Hertz-Institut im Fachblatt „Frontiers in Imaging“.
Das Blut, das jeder Herzschlag in die Gesichtshaut drückt, war bislang ein gutes Indiz für echte Bilder, erklärt Studienautor Peter Eisert. „Es verteilt sich dann über den gesamten Gesichtsbereich, wo es zu minimalen Farbänderungen der Haut kommt, die wir in echten Aufnahmen aufzeichnen können.“
Für das menschliche Auge unsichtbar, kann Software für die Telemedizin diese leichten Farbveränderungen ablesen. Mit solch einem Programm wiesen die Forschenden nun auch den Herzschlag in modernen Deepfakes nach, die sie selbst mit den neuesten Tools erzeugt hatten. Diese hatten die Farbveränderungen in den Originalvideos erkannt und in das manipulierte Video eingefügt.
Als Deepfake-Detektor taugt eine einfache Analyse von Biosignalen wie eines Herzschlags also nicht mehr. Als Abhilfe schlagen die Forschenden nun vor, noch genauer hinzusehen und lokalisierte Blutflussmuster in den Gesichtsregionen zu analysieren.
Gefahr für Demokratien und die Gesellschaft
Gerade bei politischen Akteuren sieht das Team um Eisert die Fälschungen als großes Problem an. Hier hatten gefälschte Reden bereits viel Aufmerksamkeit bekommen, zuletzt im deutschen Bundestagswahlkampf. Videos vom damaligen Kanzlerkandidaten Friedrich Merz (CDU) zeigte ihn mit Aussagen, die er in Wirklichkeit nie gemacht hatte.
Katharina Mosene vom Humboldt-Institut für Internet und Gesellschaft, die an der Studie nicht beteiligt war, weist in einem Blogbeitrag des Instituts auf ein weiteres gravierendes Problem mit Deepfakes hin. Es kursieren immer mehr gefälschte, intime Aufnahmen – „eine zutiefst geschlechtsspezifische, automatisierte digitale Gewaltform – die sich vor allem gegen Frauen richtet“, schreibt Mosene.
Schon 2019 kam eine Studie zu dem Schluss, dass etwa 95 Prozent der Deepfake-Fotos aus nicht-einvernehmlicher Pornografie bestehen. Diese lassen sich mit einem einzigen Bild des Opfers herstellen. Die Technik dafür ist für jedermann zugänglich und erfordert kein Spezialwissen. Schülerinnen aus Spanien wurden schon 2023 mit solchen pornografischen Deepfakes drangsaliert.
Ob sexualisierte Gewalt oder politische Einflussnahme – wenn sie gegen die Rechte der Betroffenen verstößt, sind Deepfakes ohne Einverständnis oft illegal. Doch selbst wenn Deepfakes sich erkennen lassen, es dagegen Rechtsmittel gibt und falls künftige Gesetze sie besser regulieren sollten, bleibt die Durchsetzung dieser Ansprüche ein Problem. Nachdem sich die Bilder rasend schnell in sozialen Netzwerken ausgebreitet haben, sind die Urheber schwer auszumachen.
- showPaywall:
- false
- isSubscriber:
- false
- isPaid: