zum Hauptinhalt

Medien: Gefilmt, erkannt

Die Bundesregierung investiert in die Erforschung von Überwachungssystemen, die selbstständig verdächtiges Verhalten erkennen sollen – und Personen quer durch einen Flughafen verfolgen können.

Kurz nachdem die Bomben am 15. April in Boston explodiert waren, ging die Arbeit der Ermittler los. In einem Lagerhaus richteten sie sich ein, um Spuren zu sichten – darunter hunderte Stunden Videomaterial aus offiziellen und privaten Überwachungskameras, dazu Tausende von Schnappschüssen, Youtube-Videos und Pressebildern, die den Tatort vor und nach den Explosionen zeigten. Es dauerte fast drei Tage, bis die Ermittler zwei Verdächtige identifizierten. Die Fahndung begann, kurze Zeit später war einer der mutmaßlichen Täter tot, der zweite im Krankenhaus.

Für Bundesinnenminister Hans-Peter Friedrich ist Boston eine Erfolgsgeschichte der Videoüberwachung. Womöglich konnten die Attentäter von einem zweiten Anschlag in New York abgehalten werden. Schon bald erklärte er in Interviews, die Videoüberwachung in Deutschland ausweiten zu wollen. Schon im Etat 2014 will Friedrich weitere Mittel bereitstellen. Auch seine Kollegen aus Bayern und Hessen fordern mehr Geld für Kameras im öffentlichen Raum.

Bereits 2013 hat die Bundesregierung 1,8 Millionen Euro für neue Videoüberwachungstechniken in der Berliner S-Bahn bereitgestellt, nachdem es dort zu mehreren Gewaltverbrechen gekommen war. Höhere Auflösung und mehr Speicherkapazitäten sollen mit den Bundeszuschüssen möglich werden. „Das Grundproblem ist: Die Informationsflut bei der Videoüberwachung ist so groß geworden, dass sie praktisch nicht zu bewältigen ist“, erklärt Professor Jörg Hähner von der Universität Augsburg.

Der Informatiker Hähner ist beteiligt an einem von einer ganzen Reihe von Forschungsprojekten, die dieses Problem lösen sollen und vom Bildungs- und Forschungsministerium gefördert werden. Im Projekt „CamInsens“ arbeiten Wissenschaftler verschiedener Fachrichtungen von Universitäten und außeruniversitären Einrichtungen sei drei Jahren zusammen. Der volle Titel lautet: „Verteilte, vernetzte Kamerasysteme zur In-situ-Erkennung personeninduzierter Gefahrensituationen“. Gemeint ist: Schon bevor es zu Gewalttaten kommt, sollen die Kameras Alarm schlagen. Sie arbeiten an Software, die Bewegungsprofile per Kamera erfassen und Schlüsse daraus ziehen soll.

Hähner hat mit Kollegen eine neue Software entwickelt, die die Menschen ersetzen soll, die rund um die Uhr auf große Monitorwände starren. Der Clou dabei: Die „Smart-Camera-Netze“ organisieren sich selbst. „Die Kameras kennen ihre Nachbarn und kommunizieren untereinander – es ist also kein Zentralrechner mehr nötig, der alle Kameras steuert.“

Haben die Kameras eine Person erfasst, folgen sie ihr automatisch – ohne menschlichen Eingriff. Läuft die Zielperson im Flughafen oder Bahnhof um eine Ecke, wird sie automatisch von der nächsten Kamera erfasst. Dabei wählt das System zunächst zufällig aus, wem sie durch ein Gebäude folgt. Das Wachpersonal kann aber auch gezielt Personen herauspicken und ihren Weg überwachen und dokumentieren lassen – ob Taschendieb oder Terrorverdächtiger.

Nächster Schritt: Durch die Erfassung der Bewegungsmuster sollen die Kameras fähig sein, „verdächtiges“ Verhalten zu erkennen. „Im Idealfall sollte der Wachmann nur einen schwarzen Bildschirm sehen, solange nichts passiert“, erklärt Hähner. Für ihn ist das eine Verbesserung des Datenschutzes – schließlich landen die meisten Daten nur im Speicher der Kameras.

Doch solche Systeme haben nicht nur Freunde. „Die deutschen Forschungsvorhaben zur Mustererkennung in der Videoüberwachung überschreiten eine rote Linie“, kritisieren die Bundestagsabgeordneten Andrej Hunko und Herbert Behrens (Die Linke). Sie haben Aufklärung über die von der Bundesregierung geförderten Forschungsvorhaben verlangt und sind durch die Antwort auf eine entsprechende Kleine Anfrage alarmiert. „Es handelt sich um eine permanente computergestützte Vorkontrolle“, lautet das Fazit der Abgeordneten.

Das Bundesministerium für Forschung und Bildung hält entgegen: „Gesellschaftswissenschaftliche Forschung zu Fragen des Datenschutzes und der Ethik sowie Transparenz sind fester Bestandteil der Sicherheitsforschung und Voraussetzungen für den Programmerfolg“, erklärt ein Sprecher auf Anfrage des Tagesspiegels. In der Tat fördert die Bundesregierung nicht nur die Entwicklung der automatisierten Überwachungstechnik, sondern auch die Beschäftigung mit deren juristischen und ethischen Grenzen. Unter dem Titel „Mustererkennung und Video Tracking“ erforschen Wissenschaftler die sozialen Folgen der permanenten Überwachung. Das Ergebnis: Die Technik ist nicht so harmlos, wie sie erscheint.

„Algorithmen beruhen immer auf menschlichen Vorannahmen“, sagt Tobias Matzner von der Universität Tübingen. Eigentlich sollte die automatisierte Videoauswertung nicht anfällig für Vorurteile sein. Doch ganz so einfach ist es nicht.

Heute eingesetzte Systeme können allenfalls rudimentäre Bewegungsmuster erkennen – beispielsweise wenn eine Person eine bestimmte Linie überschreitet. Die nächste Generation soll schlauer sein: Die Forscher setzen dazu auf selbstlernende Algorithmen, die das Verhalten in den Gebäuden analysieren und daraus Schlüsse ziehen, welche Bewegungmuster „normal“ sind. Stoßen sie auf Ereignisse, die nicht den bekannten Mustern entsprechen, alarmieren sie das Sicherheitspersonal.

Doch beim Lesen menschlichen Verhaltens stoßen die Automaten auf Schwierigkeiten: Wer mit Krücken durch den Flughafen geht, erscheint für einen menschlichen Beobachter als harmlos – der Computer kann solche Schlussfolgerungen nicht ziehen. Zweites Problem: Einmal erhobene Daten sind nicht frei übertragbar. Das Bewegungsmuster von Menschen in einem Flughafen unterscheidet sich so stark von einem Bahnhof, dass das System laufend Fehlalarm schlagen würde. Menschen müssen also die Systeme anlernen, die daraufhin auch die Wahrnehmung der Menschen übernehmen.

Immerhin: Für die Privatsphäre könnten die Systeme einen gewissen Vorteil bieten. So beobachten die Automatenkameras zwar quasi jedermann – wenn die Konzepte der Wissenschaftler jedoch Wirklichkeit werden, würden die Daten sofort wieder gelöscht. Es lägen keine Bilder einzelner Besucher vor, sondern lediglich anonyme Datenschatten, verdichtet zu Bewegungsprofilen.

Doch die Automatenkameras haben auch einen gegenteiligen Effekt: Durch die Anschaffung ständig neuer Kameras fühlen sich die Menschen beobachtet und passen ihr Verhalten einer vermeintlichen Norm an. Dieser Normalisierung will Hunko vorbeugen: „Datensparsamkeit und Datenschutz sind wichtige Grundsätze, die man nicht dem Algorithmus eines Computers überlassen kann“, erklärt der Bundestagsabgeordnete. „Am besten wäre, die Daten erst gar nicht zu erheben.“ Und in der Tat stehen die Vorzeichen schlecht, dass der theoretische Idealfall der Wissenschaftler tatsächlich in die Praxis umgesetzt wird.

So hat das Bundesinnenministerium gerade erst Mittel bereitgestellt um die Speicherkapazität von Überwachungskameras zu erhöhen. Dass die Ermittler wie beim missglückten Bombenanschlag auf den Bonner Hauptbahnhof auf die Bilder einer Kamera der McDonald’s-Filiale zurückgreifen müssen, weil die offiziellen Kameras keine Bilder aufgezeichnet haben, soll nicht mehr vorkommen. Sollte die Speicherung zum Normalfall werden, trägt die Bewegungserkennung nicht zur Privatsphäre bei – im Gegenteil.

Dass Überwachungstechnik nicht nur der Sicherheit dient, sondern ein lukrativer Exportartikel ist, haben andere erkannt. So hat die Stadtverwaltung von New York zusammen mit dem IT-Konzern Microsoft das „Domain Awareness System“ erschaffen. Ein Verbund aus 3500 in der Stadt montierten Kameras, automatischen Kfz-Kennzeichen-Scannern und weiteren Sensoren wurde zusammengeschaltet. Die Daten werden in Echtzeit ausgewertet. Von Datensparsamkeit ist hier keine Rede: Bis zu fünf Jahre sollen die Daten gespeichert bleiben.

Das System, dessen neueste Ausbaustufe 30 Millionen Dollar gekostet hat, soll nun Geld in das Stadtsäckel bringen. Microsoft versucht die Technik – die zum Beispiel vor verdächtigen Paketen warnen soll, aber auch Falschparker erfassen kann – an andere Städte zu verkaufen. Gelingt ein Abschluss, erhält New York 30 Prozent der Erlöse.

Torsten Kleinz

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false