zum Hauptinhalt
Welches Bild ergeben die vielen Teile? Bei "Big-Data"-Projekten filtern Computern ein Bild aus der Masse unstrukturierter Daten im Netz oder in Datenbanken.

© fotolia

"Big Data": Streit um ein Zauberwort

Von der Analyse großer Datenmengen, zum Beispiel aus dem Internet, verspricht sich die IT-Branche Großes. Die Daten sollen helfen, Konsumenteninteressen oder Epidemieverläufe vorherzusagen. Doch bislang dominiert die Angst der Datenschützer die Debatte.

Wer über das Netz spricht, läuft schnell Gefahr, zum depperten Hinterwäldler zu schrumpfen. Zu viele Hype-Wörter zirkulieren, die man sich vorschnell einverleibt, weil sie den Puls der Zeit zu symbolisieren scheinen. Doch im Moment der Aussprache sind sie längst Schnee von gestern: Die digitale Avantgarde hat sich schon auf den nächsten Megatrend gestürzt. Wer würde heute ernsthaft noch einen Satz verlieren über Second Life oder ICQ, über Cybersex oder Planking?

Zuletzt glänzte ein Internetphänomen mit notorischer Allgegenwärtigkeit, das vermutlich von längerer Haltbarkeitsdauer sein wird. Ein Thema, das nicht neu war, aber noch keine große Bühne erhalten hatte. 2012 war das Jahr, in dem der Vorhang fiel: Die IT-Branche jubelte es zum beherrschenden Zukunftstrend hoch, in Blogs und Fachzeitschriften, auf Kongressen und Podiumsdiskussionen. Die Rede ist von „Big Data“. Damit sind die Trillionen und Abertrillionen Bytes von Informationen gemeint, die auf den digitalen Massenspeichern dieser Welt lagern, ob in den Rechenfarmen von Facebook und Twitter, in den Kundenarchiven von Handelsfirmen und Versicherungen, in den Datenbanken von Kliniken und Behörden. Ein Mount Everest unzähliger Puzzlestücke, die Menschen im globalen Datenstrom hinterlassen haben; lauter kleine Steckbriefe. Zu ihren finanziellen Verhältnissen etwa oder beruflichen Qualifikationen, zu familiären Hintergründen oder chronischen Erkrankungen, zu Vorlieben oder Hobbys. Das utopische Potenzial, das sich aus der Masse an Bits ergibt: die Verknüpfung der Puzzlestücke zu umfangreichen Persönlichkeitsprofilen mithilfe ausgeklügelter Algorithmen. Ohne jemals den Menschen dahinter von Angesicht zu Angesicht begegnet zu sein. Stattdessen fischt spezielle Software alles Nötige aus einem anonymen Datenmeer. So weit die Vision.

Mit den Daten lässt sich zum Beispiel schon jetzt vorhersagen, welche Produkte der Kunde, das unberechenbare Wesen, begehrt – zumindest mancherorts. Das banalste und gleichzeitig bekannteste Beispiel für derlei maßgeschneiderte Sortimente findet sich auf den Seiten von Amazon, unverwechselbar zu erkennen anhand der Zeile: „Kunden, die diesen Artikel gekauft haben, kauften auch …“

Berechnungen dieser Art haben mit dem Big-Data-Schlagwort, das 2007 erstmals zaghaft in Blogs auftauchte, ein knalliges Label verpasst bekommen. Die Etikettierung wies der komplexen Materie den fälligen Weg in die öffentliche Debatte. „Gigantische Möglichkeiten und Entwicklungen“ sieht der Berliner Internetsoziologe Stephan Humer im Zusammenhang mit Big-Data-Technologie. Unternehmer schwärmen euphorisch vom „Öl des 21. Jahrhunderts“.

Datenschutzexperten allerdings sind skeptisch gegenüber den Verlockungen, die Big Data mit sich bringt. Sie befürchten dramatische Eingriffe in die Persönlichkeitsrechte der Internetnutzer. Die Schwarzseher malen totalitäre Szenarien an die Wand, die an Orwells „1984“ erinnern, jener Science-Fiction-Parabel, die von Menschen erzählt, die so massiv von fremden Mächten durchleuchtet und überwacht werden, dass sie ihre Würde verlieren.

Entsprechend stehen sich im Glaubenskrieg um Big Data zwei Lager gegenüber. Einerseits jene einflussreichen Akteure, privatwirtschaftlich oder staatlich, die aus den Datenbergen Nutzen schlagen wollen. Auf der anderen Seite formieren sich die Lobbyisten der hilflosen User – Politiker, Blogger, Fallbearbeiter aus Verbraucherzentralen. Sie kritisieren die unrechtmäßige Aneignung privater Informationen und prangern die Schnüffeleien in den Lagerhalden der Rechenzentren an.

Die Erregung der Skeptiker bleibt nicht ohne Folgen. Zwei Big-Data-Projekte lösten im vergangenen Jahr einen Aufschrei in der Öffentlichkeit aus. Dazu gehörte ein geplantes Forschungsprojekt des Hasso-Plattner-Instituts (HPI) aus Potsdam und der privatwirtschaftlichen Auskunftei Schufa. Die Schufa hatte das HPI beauftragt, zu prüfen, ob und wie Daten aus dem Internet, u.a. aus sozialen Netzwerken, für die Zwecke der Schufa verwendet werden könnten. Der NDR hatte aus einem Papier mit "Ideen" für das Forschungsprojekt berichtet, in dem es unter anderem darum ging, zu ermitteln, ob man etwa "ein aktuelles Meinungsbild einer Person" erstellen könnte. Das HPI betonte, es habe sich um einen Auftrag zur "Grundlagenforschung über den Einsatz von Textanalyseprogrammen" gehandelt, die sich nicht für konkrete Bonitätsprüfungen eignen würden, sagte das Projekt aber nach Protesten von Daten- und Verbraucherschützern wieder ab, bevor es überhaupt begonnen hatte. Ebenso ins Visier der Datenschützer geriet der Mobilfunkanbieter O2, als er ankündigte, Bewegungsdaten seiner Handykunden an Einzelhändler zu verkaufen. Der Konzern erwog, diese Daten mit Informationen zu Alter und Geschlecht zu koppeln. Geschäfte vom Supermarkt bis zum Kaufhaus hätten Soziogramme ihrer Laufkundschaft anfertigen können.

In der Tat hatten diese Projekte eine Grenze überschritten. Sie weckten ungute Erinnerungen an die Wanzen in den Wohnzimmern der DDR – nur dass diesmal keine Stasi-Beamten die Fäden im Hintergrund zogen und in die Rolle der Ausspäher schlüpften. Es waren seriös auftretende Kommunikations- und IT-Spezialisten aus Wirtschaft und Wissenschaft eines demokratischen Staats, die Inspizierungen erwogen. Freilich waren die Ziele andere: Sie folgten nicht politischen, sondern unternehmerischen Interessen.

Es sind Negativschlagzeilen dieser Art, die die Debatte um Big Data vergiften. Sie versperren den Blick auf die Chancen, die die Technologie bietet. So sagt der Medien- und Internetwissenschaftler Thomas Petzold, der den Aufsatz „Das Big Data Upgrade“ veröffentlicht hat, nach einer besonnenen Zusammenfassung des Forschungsstands: „Es ist wichtig, auf die Nutzungspotenziale aufmerksam zu machen.“

Es gibt tatsächlich Anlass zu Optimismus. Big-Data-Projekte könnten zu Dienern des Gemeinwohls werden. Software, die Daten aus dem Netz filtert und anschließend bewertet, könnte zum Beispiel ein neues Zeitalter in der ärztlichen Diagnostik anbrechen lassen. In Abu Dhabi wollen Mediziner mit einem Programm arbeiten, das Twitter- und Google-Suchanfragen durchscannt. Mithilfe der gehobenen Datenschätze würden die Ärzte rechtzeitig von einer möglichen Ausbreitung von Influenza-Viren erfahren. Falls sich Stichwörter wie „Fieber“ häufen, können sie erste Vorkehrungen gegen eine Epidemie treffen. Ähnliche Frühwarnsysteme ließen sich auch im Katastrophenschutz anwenden. Michael May, IT-Experte am Fraunhofer-Institut, berichtet von einem entsprechenden Forschungsprojekt. Programme, die ebenfalls Twitter durchstöbern, sollen Alarm schlagen, wenn Einträge darauf hinweisen, dass sich eine Überschwemmung oder ein anderes Unglück anbahnt.

Big-Data-Analysen könnten auch die Staus auf den Straßen verkürzen. Bei einem Pilotprojekt in der Rhein-Main-Region wird derzeit ein System getestet, das Verkehrsdaten auswertet. Die Informationen liefern Sensoren, die in Autos angebracht sind, aber auch am Straßenrand, beispielsweise an Ampeln. Innerhalb kürzester Zeit erhebt Software eine Prognose der Verkehrslage. Wenn in der Rushhour verstopfte Straßen drohen, kann das Programm die Autofahrer aus der Gefahrenzone dirigieren. Zudem können die Computer je nach Straßensituation die Ampeln neu schalten. Die Folge: Das Staurisiko sinkt. Das Projekt wird finanziert von Bundesministerien, dem Land Hessen sowie von Firmen aus der Automobilindustrie.

Ob Big-Data-Technologie unseren Alltag bereichern kann, hängt vom Zweck ab, den die Betreiber im stillen Kämmerlein verfolgen. Wenn die Algorithmen das gesellschaftliche Wohl befördern, kann die Preisgabe bestimmter Daten durchaus nützlich sein. Umgekehrt dürfen die Spuren, die wir nach dem Einloggen in digitale Netze hinterlassen, keine unerwünschten Späher auf den Plan rufen. Damit Verbraucher solche missliebigen Verfolger abschütteln können, muss die Bundesregierung die Initiative ergreifen. Ein erster Schritt wäre die Einführung des vieldiskutierten Datenbriefs, ein Vorschlag aus den Reihen des Chaos Computer Clubs. Dabei geht es um ein Dokument, in dem Behörden und Unternehmen die Verbraucher darüber in Kenntnis setzen, welche persönlichen Daten sie von ihnen archivieren. Erweckt eine Meldung größeres Misstrauen, könnten Bürger der Speicherung widersprechen. Der Hype um Big Data könnte einer solchen Gesetzesidee den nötigen Rückenwind verpassen.

Berichtigung: In der ersten Fassung dieses Textes wurde der Eindruck erweckt, das Hasso-Plattner-Institut habe das Forschungsprojekt im Auftrag der Schufa tatsächlich durchgeführt. Es hieß unter anderem: "Zwei Big-Data-Projekte sind im vergangenen Jahr vorzeitig beendet worden" und "In der Tat hatten diese Projekte eine Grenze überschritten. Sie eröffneten Unternehmen ungeahnte Spielräume, die Intimsphäre ungeschützter Otto Normalverbraucher auszuspionieren." Das Projekt ist tatsächlich nie zustande gekommen. Das HPI stellt fest, dass es sich um einen Auftrag zur "Grundlagenforschung über den Einsatz von Textanalyseprogrammen" handelte, die sich nicht für konkrete Bonitätsprüfungen geeignet hätte.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false