zum Hauptinhalt
Basis von Geheimdienst

© Reuters

Datenüberwachung: "Wir werden zum Teil dieser Maschinen werden"

Die Datenüberwachung durch den US-Geheimdienst NSA beunruhigt viele Internet-Nutzer. Im Interview erklärt Yvonne Hofstetter, Geschäftsführerin der auf Datenanalyse spezialisierten Firma "Teramark Technologies", wo die eigentliche Gefahr lauert: bei privaten Unternehmen, denen Privatleute freiwillig alle Daten überlassen, mit deren Hilfe das Verhalten der Nutzer manipuliert werden kann.

Frau Hofstetter, Ihre Firma entwickelt Systeme zur Datenanalyse für private Firmen, für die Polizei, für das Militär. Was sagen Sie aus Ihrer Erfahrung: Was kann der US-Geheimdienst NSA?

Was wir bei der NSA derzeit sehen, betrifft die nur erste Ebene dessen, was technologisch möglich ist. Wir reden hier über Datenfusionssysteme. Diese stammen originär aus dem Militär und kommen jetzt immer häufiger zum Einsatz, in dem Maße, in dem unsere Rechnerleistungen zunehmen. Erstens geht es darum, Intelligence-Daten zu sammeln, die gesammelten Daten zu filtern, zu klassifizieren und zu aggregieren. Zweites werden daraus neue Informationen generiert und zu einer Lageanalyse zusammengefasst. Alles durchgeführt von Maschinen. Und auf Grundlage dieser algorithmischen Lageanalyse trifft ein Entscheider – beim Militär ein Kommandant – eine Handlungsentscheidung. Je mehr Daten und je mehr unterschiedliche Datenquellen ein Geheimdienst, eine Militäroperation oder die Polizeiverwaltung hat, desto besser die Lageanalyse und die Entscheidungsgrundlage. Das ist nicht weiter geheimnisvoll, sondern Teil der technologischen Entwicklung. In der obersten und dritten Stufe der Datenfusion ist auch der Entscheider selbst eine Maschine, die oft als „Kontrollstrategie“ bezeichnet wird.

Yvonne Hofstetter
Yvonne Hofstetter

© privat

Aber die NSA sammelt doch auch solche Daten wie Posts bei Facebook ganz normaler Bürger. Wer trifft da welche Entscheidung auf Grundlage welcher Lageanalyse?

Das Problem beschränkt sich nicht darauf, dass die NSA oder andere staatliche Dienste diese Daten sammeln und auswerten. Auch die NSA ist immer noch Staat und steht unter einer gewissen parlamentarischen Kontrolle. Staatliche Dienste sind immerhin nicht ganz frei von der Beachtung von Grund- und Bürgerrechten. Das Problem ist vielmehr, dass Daten hauptsächlich von Privatunternehmen – den Datenkraken – gesammelt werden. Und die sind praktisch nicht kontrolliert. Und auch hier gibt es automatische Aggregierung, Filterung und Lageanalyse. Was es bei Privatunternehmen nicht gibt, sind grundrechtliche Garantien, auf die wir uns als Bürger berufen können. Oder nur sehr schwer. Natürlich ist es problematisch, dass die Unmengen privater Daten an die NSA weitergegeben werden. Für problematischer halte ich aber, dass Unternehmen ihre eigenen Intelligence-Lageanalysen durchführen. Diese technologische Entwicklung ist eine Gefahr für unsere Demokratie und Freiheitsrechte.

Warum soll denn eine Lageanalyse eines privaten Unternehmens eine größere Gefahr für unsere Demokratie sein, als ein Geheimdienst mit schier unbegrenzten Kapazitäten und Befugnissen?

Wir hatten einmal eine Anfrage eines privaten Sicherheitsunternehmens, für einen internationalen Ölförderer ein privates geheimdienstliches System aufzubauen. Ich möchte vorher betonen, dass wir ein solches System nicht gebaut haben – politisch wäre das hochbrisant, aber technologisch mit Datenfusion problemlos möglich. Ein Rohstoffförderer hat natürlich Interesse an seiner Sicherheitslage in den Staaten, in denen er tätig ist. Er will wissen, wo Pipelines gefährdet sind, auf wen in diesem oder jenem Land politisch Verlass ist, wo man gute Lagerstätten und bereitwillige Arbeiter findet, wo sich Aufstände bilden. Sobald es darum geht, welcher Staatsmann wo im Ausland welche Konten unterhält und dadurch bestechlich oder erpressbar ist, wird es personenbezogen – und hochpolitisch. Wenn diese Konzerne intelligente Softwaresysteme einsetzen, die in der Lage sind, entsprechende Informationen zu fusionieren und Entscheidungsunterstützung zu liefern, heißt das, dass solche Konzerne letztlich eine Kontrolle über die Länder aufbauen können, deren Rohstoffe sie fördern.

Und bauen Sie die Maschinen dann?

Wir bauen Datenfusionssysteme für die Finanzserviceindustrie, insbesondere für den algorithmischen Währungshandel. Hier geht es ausschließlich um die Fusionierung von Marktdaten, die nicht-personenbezogen sind. Noch sind solche Systeme nicht weit verbreitet, aber die Entwicklung schreitet rasch voran. In der vergangenen Woche erreichte uns eine Anfrage eines großen Online-Buchhändlers, der jetzt ein Maschine-Learning-Team aufbauen will. Und wenn man weiß, welche Technologien für die Datenfusion nötig sind, wird man hier entsprechend hellhörig. Technologen wissen, es geht jetzt genau in die Richtung der pessimistischen Szenarien von stärkerer Manipulation und Lenkung der Gesellschaft.

Was muss ich mir an einem Intelligence-System bei einem Online-Händler problematisch vorstellen?

Ein Online-Händler hat unter Umständen sehr viele Rohdaten über Sie vorliegen – wieviel Geld Sie monatlich für seine Produkte ausgeben, wem Sie etwas schenken – sind das Geschäftspartner? Dann stehen Sie mit den Beschenkten vermutlich auch in Geschäftsbeziehung. Welche Themen Sie interessieren, wie pünktlich Sie Ihre Rechnungen zahlen - das wäre Datenfusion Stufe 1. Datenfusion Stufe 2 ist dann eine Lageanalyse: Da werden Ihre sehr umfangreichen personenbezogenen Daten aus Stufe 1 – eventuell mit anderen hinzugekauften demografischen Daten – zu neuen Informationen über Sie zusammengefasst. Man vergleicht Sie mit einer repräsentativen Gruppe und zieht daraus beispielsweise Rückschlüsse über Ihre Gehaltsklasse und Ihre Kreditwürdigkeit. In Stufe 3 sollen Sie zu einer Aktion veranlasst werden. Eine Kontrollstrategie wird Ihnen genau diejenigen Information präsentieren, die auf Ihr Profil zutreffen, um Sie zum Beispiel zu einem Kauf zu veranlassen. Wir kennen so etwas bereits aus der personalisierten Werbung. Sie erhalten also nicht mehr die volle Information, sondern nur noch einen Ausschnitt. Sie fühlen sich informiert, aber sind es eigentlich nicht. De facto kann man Sie auf diese Art manipulieren. Die Kontrollstrategie überprüft übrigens, ob Sie die vorgeschlagene Aktion ausgeführt haben – falls nicht, wird sie nachsteuern. Das ist ein harmloses Beispiel, in dem es um personalisierte Werbung geht.

Und was ist die weniger harmlose Version dessen?

Stellen Sie sich vor, Sie erhalten gezielt Falschinformationen. An der Börse kommt so etwas häufig vor, man bezeichnet ein solches Verhalten eines Marktteilnehmers als „Marktmanipulation“. Es geht also um die absichtliche Lüge eines Marktteilnehmers zu seinem Vorteil, in der Forschung auch als „intentional lying of counterparties“ ein Begriff. Intelligente Maschinen, die uns zu einer Aktion anhalten, werden immer stärker und kommen immer häufiger zum Einsatz. In vielen infrastrukturellen Megaprojekten sind inzwischen Datenfusionssysteme, maschinelle Lernverfahren und verteilte künstliche Intelligenz stark im Kommen. Derzeit liegt uns die Anfrage für einen zentralen Optimierer für die Lenkung des Lieferverkehrs in französischen Großstädten vor. Mithilfe dieses Systems sollen Lastwagenfahrer nur noch in ihrer Kabine sitzen und die Routen abfahren, die ihnen eine Maschine in Echtzeit „einspielt“. Wohlgemerkt, es geht hier nicht um Wegeoptimierung, wie wir sie alle vom GPS her kennen. Vielmehr werden auch Komponenten wie Beladung des jeweiligen Lkws, Warenströme zum Zentrallager und die Kundenbestellungen in die Berechnung einbezogen. Und diese Routen sind mathematisch optimal, das heißt: Sie sind besser als die Routen, die der Disponent oder Fahrer wählen würde. Im schlechten Fall werden die Fahrer vom Optimierer von Zielpunkt zu Zielpunkt getrieben. Eine Entscheidung steht nicht zur Diskussion. Der Fahrer wird zum integralen Teil der Maschine. Er verschmilzt quasi damit. Die Forschung geht in diesem Bereich sehr schnell voran und damit auch die Verbreitung der Systeme in allen Bereichen unseres Alltags und unserer Arbeitswelt. Es wird bald überall Optimierer geben, und wir werden immer mehr zum Teil dieser Maschinen werden.

Wie gut sind die Maschinen wirklich? Viele Leute haben elektronische Fake-Identitäten, stellen Bilder unter falschen Angaben in Netzwerke ein zum Beispiel, Staaten verbreiten falsche Informationen, ebenso wie Firmen. Können die Systeme die menschliche Fehlerquelle ausschalten, die fehlerhafte Information herausfiltern und zu einem korrekten Ergebnis kommen?

Künstliche Intelligenz ist heute sehr schlau. Nehmen Sie das Beispiel des algorithmischen Währungshandels: Bestimmte lernende Maschinen handeln nachweisbar profitabler als der Mensch. Uns liegen Daten vor, bei denen die Maschine menschliche Händler konsistent mit rund 20 Prozent höheren Profiten schlägt. Der Optimierer findet immer eine Ideallösung. Zwar ist die künstliche Intelligenz sehr wohl abhängig von dem, was an Rohdaten eingegeben wird. Aber die Systeme sind lernfähig und qualifizieren auch die Güte und Zuverlässigkeit der Datenquellen. Wenn eine Datenquelle nichts zum Endergebnis beitragen kann, wird diese Datenquelle von der Datenfusionsengine einfach nicht mehr berücksichtigt.

Und wie gut kann so eine Maschine meine Persönlichkeit einschätzen?

Ich fürchte, sehr gut. Die Systeme arbeiten ja nicht nur mit Ihren personenbezogenen Daten. Sie werden mit statistischen Daten über Menschen, die ein ähnliches Profil haben wie Sie, abgeglichen. Sie werden klassifiziert, auf unterschiedlichen Ebenen. Und auch da gilt: Unzuverlässige oder unwahrscheinliche Informationen werden aussortiert. Facebook arbeitet auch immer stärker so. In der geplanten Kooperation mit Datalogic sollen offenbar künftig die persönlichen Daten mit den entsprechenden Daten von Gruppen verheiratet werden. Es wird versucht, immer besser den Menschen einzuschätzen und seiner Persönlichkeit und seinem Verhalten näher zu rücken. Es geht letztlich um eine Vorhersage Ihres Verhaltens.

Und was hat die NSA nun davon? Oder ein deutscher Geheimdienst?

Natürlich sind hier Informationen zusammengetragen worden, die - zusammengeführt mit anderen Datenquellen - wichtige Beiträge für die Sicherheit leisten. Vorhersagbarkeit heißt eben auch, dass kriminelle oder terroristische Hotspots rechtzeitig identifiziert und ausgehoben werden, bevor ein Anschlag erfolgt. Das ist sinnvoll und erhöht die Sicherheit. Noch einmal: Für mich liegt die Bedrohung für unsere Demokratie und grundgesetzlichen Freiheiten weit stärker im gar nicht kontrollierten Bereich derjenigen privaten Unternehmen, denen wir freiwillig alle Daten überlassen, mit denen man uns langfristig zu bestimmten Aktionen veranlassen kann, ohne dass uns bewusst ist, dass wir eigentlich nicht mehr die Wahl haben. Damit wir uns in Zukunft nicht mit den pessimistischen Szenarien totalitärer Softwaresysteme auseinandersetzen müssen, müssen Techologieentwicklung und Gesellschaft unbedingt stärker zusammenwirken und unsere Zukunft so gestalten, dass unsere Freiheitsrechte – und das Vertrauen zueinander – gewahrt bleiben. Technologie kann das nicht alleine leisten. Denn jüngere Generationen, die mit der Vernetzung aufgewachsen sind, die so genannten Digital Natives, haben ein ganz anderes Verhältnis zu Daten als meine Generation. Da gilt die Devise: Die Daten sind da, also nutzen wir sie gnadenlos und entwickeln darauf profitable Geschäftsmodelle unter Hinnahme der totalen Kontrolle unserer Mitbürger. Hier gibt es leider überhaupt keine Hemmungen. Und kaum technologische Grenzen.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false