zum Hauptinhalt
Wer kauft im Netz was und warum? Das wollen Online-Händler durch Datenanalyse künftig noch genauer herausfinden.

© picture alliance / dpa

Big Data: Super viel zu tun für Supercomputer

Konferenz „Digital Future“: Warum Hochleistungsrechner immer wichtiger werden.

Berlin - Ob er damals ahnte, was seine Erfindung bewirken würde? Vor 75 Jahren, am 12. Mai 1941, präsentierte der Berliner Konrad Zuse seine „Z3“ – den ersten funktionsfähigen, frei programmierbaren Computer der Welt. Dass die Maschine einen großen Fortschritt bedeutete, war Zuse klar. Als Ingenieur wusste er, wie mühsam die vielen Berechnungen waren, mit denen die Stabilität von Brücken und Flugzeugteilen überprüft wurden. Ein Rechner, der das übernahm, galt als Segen für seine Zunft. Dass seine Erfindung eine Revolution mit auslöste, dürfte Zuse kaum vorausgesehen haben.

Vor 75 Jahren erfand Zuse den Computer

Wer konnte sich zu Beginn des 20. Jahrhunderts schon eine Welt mit Smartphones, selbstfahrenden Autos, globaler Kommunikation in Echtzeit vorstellen?

Wie diese digitale Revolution begann und wohin sie führen könnte – darüber diskutierten Experten vor 1200 Gästen am Mittwoch bei der Konferenz „The Digital Future“, die vom Tagesspiegel und dem Zuse-Institut Berlin (ZIB) veranstaltet wurde. Wie Zuse und seine Zeitgenossen konnte sich auch dieser Tage niemand ernsthaft ausmalen, wie die Welt in 75 Jahren sein wird. Für die nähere Zukunft ist das etwas leichter. Und die verspricht ebenfalls große Veränderungen in der Informationstechnologie.

„Ab den 2030er- Jahren brauchen wir eine neue Technologie.“

Hochleistungsrechner, die bisher nur von wenigen Experten benutzt werden, werden künftig für viel mehr Nutzer relevant, sagte Steve Scott, Senior Vice President und CTO der Firma Cray, die solche Systeme anbietet. „Die Arbeit wird geteilt: Man hat sein Smartphone, das ein paar Rechnungen selbst ausführt, der überwiegende Teil wird aber im Verborgenen erledigt, in einer Cloud.“ Der Bedarf an Supercomputern, die im Hintergrund arbeiten, steige deshalb weiter an.

Deren Leistung ist in den vergangenen Jahrzehnten kontinuierlich gestiegen. Noch halten die Entwickler das Tempo, indem sie immer kleinere Halbleiterstrukturen bauen. Doch bald sei bei der gegenwärtigen Technik eine physikalische Grenze erreicht, warnte Scott: „Ab den 2030er- Jahren brauchen wir eine neue Technologie.“ Welche das sein wird, kann heute keiner sagen. Scott nannte zum Beispiel Kohlenstoff-Nanoröhren und Graphen, die seiner Einschätzung nach weniger beim Rechnen, dafür aber beim Speichern von Daten nützlich sein könnten.

Natürlich wurde auch wieder der Quantencomputer genannt – wie schon seit vielen Jahren. Bisher ist er aber nicht mehr als eine Hoffnung: „Bis jetzt lassen sich alle Aufgaben der Welt mit einem klassischen Computer schneller lösen als mit einem Quantenrechner“, sagte Scott. „Aber das könnte sich bald ändern.“ Tatsächlich arbeiten Firmen wie D-Wave, IBM und Google mit Hochdruck an solchen Maschinen.

„Im Datenmanagement befinden wir uns noch in der Steinzeit“

Als weitere Zukunftstechnologie nannte der Cray-Manager optische Computer. Statt mit elektrischen Strömen arbeiten sie mit Lichtsignalen, das verspricht eine größere Bandbreite und damit schnelleres Arbeiten. Zudem verbrauchen sie weniger Energie. „Ich kann es nicht garantieren, aber ich bin sehr zuversichtlich, dass das Tempo der Entwicklung weiter hoch bleibt“, sagte Gray.

Immer bessere Rechenkapazitäten sind das eine, auf der anderen Seite sollten die Maschinen effektiv eingesetzt werden, um ihr Potenzial zu nutzen. Dabei tut sich jedoch eine Lücke auf, findet Volker Markl, Professor an der TU Berlin und Direktor des Berliner Big Data Centers (BBDC). „Im Datenmanagement befinden wir uns noch in der Steinzeit“, sagte er und spielte ein Video ab, das einen Urmenschen zeigte, der tumb auf abgenagte Knochen einschlug. So schlimm?

„Die Menschen hatten damals kaum Werkzeuge, um die Dinge voranzubringen“, erläutert er. Ähnlich verhalte es sich mit den Werkzeugen für Datenanalysen – die seien auch nur wenigen Experten vorbehalten, weil sie so kompliziert seien. Angesichts der rapide wachsenden Informationsströme, wie sie etwa „Industrie 4.0“ mit sich bringt, brauche es Fachleute, die zum einen die gewaltigen Datenmengen beherrschen und managen können und zum anderen mit deren Analysen vertraut sind, sagt Markl. „Dadurch entsteht ein neues Berufsbild, das es so bisher kaum gibt: Die Leute müssen den mathematischen Teil der Analysen ebenso beherrschen wie den Ingenieurteil des Datenmanagements.“

Berliner Big Data Center entwickelt System für Analyser großer Datenströme

Solche Kompetenzen aufzubauen sei eines der Ziele des Berlin Big Data Centers. „Wir haben beispielsweise ein System entwickelt, das für die Analyse großer Datenströme geeignet ist“, erläutert der Direktor. Das nutze etwa die Firma Zalando, wenn sie ermitteln möchte, welche weiteren Produkte sie ihren Kunden zum Kauf anbieten sollte. Auch in der Wissenschaft sind solche Systeme hilfreich, unter anderem wenn es darum geht, die Eigenschaften neuer Materialien miteinander zu vergleichen.

Das BBDC setze auf Open-Source-Technologien, die dann auch hiesige Start-ups nutzen können. Neben diesem Service sieht Markl die Aufgabe seines Zentrums auch in der Ausbildung: „Die großen Firmen in Deutschland hängen in puncto data science weit hinter anderen Unternehmen zum Beispiel in den USA hinterher“, sagt er. Manche Führungskräfte aus den Firmen hätten die Technik und ihre Konsequenzen noch nicht richtig verstanden: „In den USA kann ich mit den Chefs viel tiefgründiger über Technologie diskutieren, hier muss ich noch viel erklären.“

Gerade in den größeren Unternehmen müsse sich einiges tun, fordert Markl. „Es müssen mehr Leute mit Datenkompetenz eingestellt und anständig bezahlt werden – sonst gehen die meisten Talente ins Ausland.“

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false