Precrime wird Realität : Spurensuche im Netz

Was wie Science Fiction klingt, könnte bald Realität werden: Eine Software sagt Verbrechen voraus. Helfen Precrime-Systeme, Verbrechen zu verhindern?

Adrian Lobe
Fotos: Fotolia, Imago; Montage: Tsp
Fotos: Fotolia, Imago; Montage: TspFoto: alswart Fotolia

Google Now weiß, dass wir morgen früh einen Geschäftstermin haben und empfiehlt, aufgrund des Staus früher loszufahren. Facebook kennt unsere Präferenz für Schokolade und bietet passgenaue Werbung an. Die Algorithmisierung unseres Alltags macht unser Verhalten berechenbarer, vorhersehbarer. Weiß die Polizei, wer morgen beim Nachbarn einbricht? Im Hollywood-Streifen „Minority Report“ werden im Jahre 2054 Verbrechen vorhergesehen, bevor sie überhaupt verübt werden. Drei hellsichtige, in einer Nährlösung vegetierende „Precogs“ haben Visionen in die Zukunft. Polizisten werten diese Informationen aus.

München testet die Precops-Software

Seit Mitte Oktober testet die Polizei München die Precrime-Software Precobs, die mithilfe von Statistiken Verbrechen vorhersagt. Das Programm ermittelt aus vergangenen Delikten Muster und leitet daraus Wahrscheinlichkeiten für künftige Einbrüche ab. Fast wie auf einer Wetterkarte können Einbruchsrisiken vorhersagbar werden. Entwickelt wurde das Programm am Institut für musterbasierte Prognosetechnik (IfmPt) in Oberhausen. Precobs markiert Quadrate von 250 mal 250 Metern entsprechend der statistischen Wahrscheinlichkeit, dass es in der Gegend innerhalb eines bestimmten Tages zu einem Einbruch kommt. Rote Gebiete sind besonders gefährdet. Im Idealfall ist die Polizei zur Stelle, bevor die Täter zuschlagen können. Für eine Evaluation ist es in München noch zu früh. Die Zürcher Stadtpolizei, die Precobs von November bis April einsetzte, hat positive Erfahrungen gemacht. „In der Zeitspanne hat der Einbruch stadtweit um 14 Prozent und in den überwachten Gebieten um das Doppelte abgenommen“, teilt die Behörde mit.

In den USA und in Großbritannien kommt die Software PredPol zum Einsatz. Sie sagt nicht nur Einbruchsdelikte voraus, sondern auch Drogenhandel, Waffengewalt und Bandenkriminalität. Das Programm basiert auf der Idee, dass Verbrechen keinem Zufall entspringen. Für die Entwickler ist Kriminalität nichts anderes als Mathematik, die sich mit kühnen Formeln berechnen lässt. Bei der Polizei in Los Angeles laufen Daten aus über 1000 Überwachungskameras in das Lagezentrum ein, die in Echtzeit analysiert und mit Statistiken abgeglichen werden. Wo bahnt sich der nächste Einbruch an? Die Cops haben alles im Blick.

Gleichwohl: Die Technik hat Tücken. In den USA sorgte im Sommer ein Fall in Chicago für Schlagzeilen. Robert McDaniel, ein 22-jähriger High-School-Abbrecher, bekam eines Tages Besuch von der Polizei. McDaniel war wegen gewaltloser Delikte wie Cannabisbesitz aktenkundig, ein Freund von ihm war im Jahr zuvor erschossen worden. Die Polizeibeamtin gab dem jungen Mann zu verstehen: „Wenn Du irgendein Verbrechen begehst, wird das ernsthafte Konsequenzen haben. Wir beobachten Dich.“ McDaniel war verdutzt. Was er nicht wusste: Er landete auf der Heat List – einem Index von rund 400 Personen in Chicago, die am wahrscheinlichsten ein Verbrechen begehen würden. Die Eigenschaften „Drogenbesitz“ und „erschossener Freund“ korrelierten mit der Wahrscheinlichkeit, jemanden zu töten. McDaniel hatte das Pech, im „falschen“ Viertel zu wohnen. Sein soziales Umfeld machte aus ihm einen potenziellen Verbrecher. Bizarre Logik: Wer mit den falschen Freunden befreundet ist, gerät auf den Index. Ein digitaler Pranger.

Chicago sucht per Computer Verbrechens-Hotspots

Die Datenbank der Polizei in Chicago speist sich aus einer Menge kriminaltechnischer Details. Seit Jahren wird sie dazu benutzt, um Hotspots zu identifizieren. Allerdings: Die Datenbank enthält auch Anrufe über Ruhestörungen und pauschale Verdächtigungen. All die Informationen verrühren die Algorithmen zu einem kruden Brei. Hinzu kommt: Die Kriminalität konzentriert sich in Chicago auf rund zehn Prozent des Stadtgebiets. Dabei handelt es sich um ärmere Distrikte, die mehrheitlich von Schwarzen und Hispanics bewohnt werden. Die Risikoprofile haben daher oft eine rassistische Grundierung („Racial Profiling“). Der Strafrechtsexperte Hanni Fakhoury von der Electronic Data Foundation sagt im Gespräch mit dem Tagesspiegel: „Eines der Probleme von Predictive Policing ist, dass letztlich jeder Algorithmus, der auf menschlichen Daten basiert, in das System eingespeist wird. Wenn Polizeiarbeit auf stereotypen oder gar rassistischen Profilen gründet, wird der Algorithmus einfach dieselben Ergebnisse ausspucken. In anderen Worten: Wer Müll reinwirft, bekommt auch Müll heraus.“ Das System ist nur so intelligent wie die Daten.

In Deutschland gibt es wenig Erfahrungswerte im Umgang mit der Technik, die Rechtsprechung hat sich damit noch kaum befasst. Alexander Gluba, Präventionsexperte beim Landeskriminalamt Niedersachsen, sagt: „Die Erstellung treffgenauer Prognosen ist in anderen Bereichen als der Kriminalität bereits üblich und möglich, und es ist plausibel, dass auch Kriminalität Mustern folgt. Bisher ist jedoch der Nachweis der Treffgenauigkeit ausgeblieben.“ Die Prognose kann eben auch danebenliegen, so wie bei Wettervorhersagen. Methodisch ist die Vorgehensweise insofern problematisch, als Muster, die in der Vergangenheit nicht auftraten, in der Zukunft schwerlich prädiziert werden können. Will heißen: Wenn es keine Regelmäßigkeiten über Verbrechen gibt, die sich zu einem Muster zusammenpuzzeln ließen, kann man auch keine Vorhersagen treffen. Überall dort, wo ein Täter nicht gezielt vorgeht, wo er impulsiv agiert (wie etwa bei Kapitalverbrechen) oder im Affekt handelt, läuft die Methode ins Leere. Kriminalität ist kein Rechenspiel, sondern ein komplexes Konstrukt aus Intentionen, Motivationen, äußeren Umständen.

Welche Daten dürfen verwendet werden?

Trotzdem stellt sich die Frage: Welche Daten werden hier eigentlich verwendet? Präventionsexperte Gluba betont: „Die in Niedersachsen in der Prüfung befindlichen Vorhersagemodelle werden keine personenbezogenen Daten enthalten, auch der Tatort wird nicht auf Basis konkreter Adressen, sondern auf Straßenzugsebene betrachtet.“ Doch die Versuchung, diese Muster mit Personen zu verknüpfen, ist naheliegend. Zumal die Hotspots recht überschaubar sind. Da gerät man schnell ins Visier der Fahnder.

Im Rahmen des EU-Projekts Caper werden frei verfügbare Quellen im Netz ausgewertet, unter anderem Suchmaschinen und soziale Netzwerke. Die Ermittler sind vom Gedanken beseelt, dass sich irgendwo in den Rohdaten des Internets die eine heiße Spur befindet. Bundespolizei und Kriminalamt forschen daran, Inhalte des Kurznachrichtendienstes Twitter zu analysieren. Netzaktivisten wie Matthias Monroy kritisieren, dass durch die automatisierte Anzeige von Geodaten Unbeteiligte ins Kontrollraster geraten. Letztlich ist es die Frage, ob Computer wirklich die besseren Kriminalisten sind. Die Anschlagspläne der Sauerlandgruppe hätte wohl keine Software vorhersagen können – die Terrorzelle konnte nur durch die akribische Arbeit der Sicherheitsbehörden entlarvt werden.

Glossar: Rasterfahndung

Die Rasterfahndung wird schon lange praktiziert und ist unter bestimmten Voraussetzungen zulässig. In engem Rahmen dürfen personenbezogene Daten zur Fahndung herangezogen werden. „Die durch Kommunikationsdaten ermittelte Anwesenheit in der Nähe eines künftigen Tatorts wäre ein solches personenbezogenes Datum“, sagt Strafrechtsprofessor Henning Ernst Müller. Das Problem ist, dass sich die einschlägige Norm (§ 98a StPO) auf bereits vergangene Taten bezieht. Das Gesetz regelt Postcrime, aber nicht Precrime.
Aber was darf nun die Polizei zur Gefahrenabwehr auswerten? Wenn man sich per Tweet verabredet, um eine gewalttätige Demo oder eine Schlägerei zu verabreden, kann das die Polizei bereits heute mitlesen. „Auch in den 1970ern hat die Polizei natürlich Flugblätter gelesen, um bei gewaltaffinen Veranstaltungen rechtzeitig vor Ort zu sein“, sagt Strafrechtler Müller. Das sei zwar Gefahrenabwehr, aber keine Rasterfahndung. Tsp

1 Kommentar

Neuester Kommentar