NSA-Affäre : Das Internet "abzuhören" ist gar nicht so einfach

Amerikanische und britische Geheimdienste gelten neuerdings als allwissend. Doch so leicht ist das Abfischen von Daten im Internet gar nicht. Denn anders als beim Telefonieren ist kaum vorhersagbar, welchen Weg ein Datenpaket nimmt.

Torsten Kleinz
Das Bild zeigt ein Wirrwarr von Metallröhren in einer Industrieanlage.
Das Internet ist völlig anders konstruiert als das Telefonnetz. Kommunikationsvorgänge werden aufgesplittet und die einzelnen...Foto: Andrei Merkulov Fotolia

Nennen Sie ein Internet-Empfangsgerät mit fünf Buchstaben. Nein, nicht Handy. Gemeint ist: U-Boot. Wie der „Spiegel“ in dieser Woche berichtetet, haben die US-Geheimdienste womöglich nicht nur mithilfe der Verbündeten vom britischen Geheimdienst GCHQ den internationalen Internetverkehr abgehört, sondern sollen auch das spezialisierte Unterseeboot „USS Jimmy Carter“ zum Anzapfen von Datenleitungen am Grunde der Ozeane eingesetzt haben. Bisher nur Spekulation – aber dieses Detail zeigt, wie schwer es ist, das Internet zu überwachen.

Das Internet ist kein einheitlicher Kommunikationsdienst wie einst das Telefonnetz. Rief man von Deutschland in den USA an, war ziemlich klar vorherbestimmt, über welche Leitungen, über welche Verteiler ein Gespräch den Weg von einem Kommunikationspartner zum anderen fand – an jeder beliebigen Stelle des Kommunikationswegs konnte man daher ein Gespräch abhören. Das Internet hingegen ist eine selbst organisierte Ansammlung von mehr als 40 000 selbstständigen Netzen – von den Netzen kommerzieller Internetanbieter über Universitätsnetzwerke bis hin zu den Netzen von Google und Co. Diese Einzelnetze sind an unzähligen Punkten miteinander verwoben und bilden das Internet.

Welchen Weg ein Datenpaket von Punkt A zu Punkt B nimmt, wird jedes Mal neu ausgehandelt – die Daten nehmen den jeweils schnellsten Weg. So kann theoretisch eine Information den Weg um die halbe Welt und durch ein Dutzend unterschiedlicher Netze machen, obwohl Server und Empfänger nur ein paar Kilometer entfernt sind.

Das Abhören am Kabel hat auch Nachteile

Die Lauschangriffe auf die Unterseekabel sind deshalb besonders attraktiv. Denn wenn Daten von einem US-Server zu einem Nutzer in Europa, Asien oder Afrika gesendet werden, müssen sie mit großer Wahrscheinlichkeit durch eines der Unterseekabel gesendet werden. Wenn die verschiedenen Datenpakete eines Kommunikationsvorgangs jedoch unterschiedliche Wege nehmen, muss man alle Teile abhören – oder die Kommunikationsdaten ergeben keinen Sinn. Der Impuls von Diensten wie dem NSA ist daher klar: Sie wollen möglichst alle Daten abhören.

Um die Daten wieder zusammensetzen, benötigt man einen Zwischenspeicher. Hier können spezialisierte Programme die Kommunikation wieder zusammensetzen. Wenn die Hälfte einer E-Mail über das Unterseekabel zwischen Großbritannien und New York geht, die andere aber über ein Kabel zwischen Großbritannien und Florida, können beide Hälften zum Beispiel im Rechenzentrum der britischen Abhörzentrale GHCQ zusammengesetzt werden. Sofern die Nachricht nicht verschlüsselt ist, kann damit der gesamte Inhalt rekonstruiert werden.

Der Bundesnachrichtendienst betreibt ebenfalls eine „strategische Fernmeldeaufklärung“, die im Prinzip den Abhörmaßnahmen der NSA entspricht – allerdings werden vorrangig die Kommunikationsleitungen von Deutschland ins Ausland überwacht. Was mit den Daten genau geschieht und wie sie abgehorcht werden, ist Geheimsache.

Das reine Abhören von Datenleitungen hat einen Nachteil: Kommunizieren die Gesprächspartner verschlüsselt, können die Geheimdienste nicht ohne Weiteres mitlesen. Zwar können die Geheimdienste auch bei verschlüsselter Kommunikation noch Sender und Empfänger auslesen. Diese „Metadaten“ sagen in der Masse fast so viel aus wie die Inhalte der Kommunikation selbst: Wer hat mit wem gesprochen? Von wo griff ein Verdächtiger auf seine E-Mail-Konten zu? Wer trifft sich mit wem? Denn die Metadaten umfassen auch Informationen, die zum Beispiel über das Handynetz ausgetauscht werden.

Doch Verschlüsselungstechnologien stellen die Geheimdienste auch vor Probleme. So setzt selbst Facebook mittlerweile bei seinen Webseiten fast durchgängig die Verschlüsselungstechnik SSL ein, die auch beim Onlinebanking eingesetzt wird. Theoretisch bekommen die Lauscher an den Unterseekabeln deshalb nicht mit, was die Facebook-Nutzer untereinander austauschen. Sie können allenfalls über die nach wie vor unverschlüsselten Benachrichtigungs-E-Mails die Kommunikation mitlesen. Der NSA-Whistleblower Edward Snowden hat darauf aufmerksam gemacht, dass nicht einmal der amerikanische Geheimdienst viele gängige Verschlüsselungsprotokolle knacken kann. Auch arabische Geheimdienste scheiterten während des Arabischen Frühlings an dieser Verschlüsselung, die iranischen Internetanbieter müssen laut Medienberichten SSL-Verbindungen ins Ausland unterdrücken.

Die Rasterfahndung per Big-Data-Anwendung funktioniert

Vermutlich ist dies ein Grund, warum die Geheimdienste nach weiteren Quellen suchten. Das Spionageprogramm Prism setzt bei den Betreibern der Plattformen selbst an. Noch ist nicht klar, auf welchem Wege genau – aber der NSA hat offenbar zusammen mit der US-Bundespolizei FBI Mittel und Wege gefunden, auf den Datenbestand der Betreiber sozialer Netzwerke oder Kommunikationsdienste zugreifen. Auch wenn – wie etwa Google versichert – der Zugriff nur nach gesetzlichen Verfahren und unter Richtervorbehalt stattfindet, können die Daten anschließend von Geheimdiensten in ihren gewaltigen Datenpool aufgenommen werden.

Ein solcher Zwischenspeicher hat einen weiteren Effekt. Die üblichen rechtsstaatlichen Mittel der Kommunikationsüberwachung sind in der Regel an einen Sender oder einen Empfänger gebunden. In Deutschland sind Provider verpflichtet, Abhörschnittstellen für die Behörden bereitzuhalten. Die Polizei kann mit Richterbeschluss jede E-Mail, jedes Telefonat, jedes Datenpaket eines bekannten Verdächtigen abfangen. Nimmt man einen großen Zwischenspeicher hinzu, wird dieses Paradigma jedoch umgekehrt.

„Big Data“ heißt das Schlagwort, das seit Jahren Furore macht. Damit gemeint sind nicht nur die immer größeren Datenbanken und die schnelleren Rechner, die diese auswerten können. „Big Data“ bedeutet, dass Firmen, Forscher und Behörden Daten erst massenhaft speichern und anschließend nach Verwendungsmöglichkeiten suchen. Das geht sogar über die Rasterfahndung hinaus. So hatte das BKA einst nach RAF-Terroristen gesucht, indem die Fahnder Menschen suchten, die ihre Stromrechnung bar bezahlten, und filterte die heraus, die in Häusern wohnten, die nach Vorstellung der Polizisten besonders als konspirative Wohnungen geeignet waren.

Die massenhafte Analyse von Daten jedoch kann die Mutmaßung übergehen: alle Aspekte eines Verdächtigen können analysiert und Verbindungen zu anderen Verdächtigen gefunden werden. Hat ein mutmaßlicher Terrorist, Wirtschaftsspion oder Whistleblower jeden Morgen die Webseite des Tagesspiegels aufgerufen, kann Big Data auch andere Tagesspiegel-Leser finden – geeignete Quelldaten vorausgesetzt. Ob die tägliche Onlinelektüre als relevant erachtet wird, liegt in der Hand der Datenanalysten.

Allein im Hauptquartier des britischen GCHQ arbeiten nach Informationen der britischen Zeitung „The Guardian“ 550 englische und amerikanische Analysten. In Amerika entstehen inzwischen gigantische neue Rechenzentren, in denen Daten wie Flugpassagierlisten, abgehörte Daten oder Daten über den herkömmlichen Briefverkehr zusammenlaufen und in einen gewaltigen Datenfundus verwandelt werden, der bei Bedarf alles über jeden in Erfahrung bringen soll. Nach einem Bericht des National Public Radio baut der NSA in Utah gerade ein Rechenzentrum auf, das eine Speicherkapazität von fünf Zettabyte haben soll. Die Datenaktivisten von OpenDataCity haben errechnet: Das ist mehr als das Milliardenfache dessen, was die Staatssicherheit über die DDR-Bevölkerung speicherte. „Unter der Annahme, dass ein Aktenschrank 0,4 Quadratmeter Platz benötigt und 60 Aktenordner, also etwa 120 MB Daten fassen kann, würde das Utah-Rechenzentrum ausgedruckt etwa 17 Mio. Quadratkilometer Platz verbrauchen“, schreibt OpenDataCity. Zum Vergleich: Ganz Europa kommt auf gerade einmal 10,5 Millionen Quadratkilometer.

2 Kommentare

Neuester Kommentar
      Kommentar schreiben