75 Jahre digitale Welt : „Die Gefahr liegt in der Komplexität der Systeme“

Die Erfindung des Computers revolutionierte die Welt. Ein Gespräch mit den Professoren und Informatikexperten Christof Schütte und Jochen Schiller über Chancen und Risiken der Digitalisierung.

Christa Beckmann und Annika Middeldorf
Der erste Computer und sein Erfinder: Konrad Zuse 1989 mit einem Nachbau im Berliner Museum für Verkehr und Technik.
Der erste Computer und sein Erfinder: Konrad Zuse 1989 mit einem Nachbau im Berliner Museum für Verkehr und Technik.Foto: picture-alliance/dpa

Es war der Beginn des Computer-Zeitalters: Vor 75 Jahren präsentierte Konrad Zuse in Berlin seinen Z3-Rechner. Wie Zuses Erfindung die Gesellschaft verändert hat und welche Herausforderungen die Digitalisierung mit sich bringt, darüber sprechen Christof Schütte, Professor für Numerische Mathematik und Scientific Computing an der Freien Universität und Präsident des Zuse-Instituts Berlin (ZIB), und Jochen Schiller, Professor für Technische Informatik an der Freien Universität und Experte für IT-Sicherheit.

Er sei zu faul zum Rechnen gewesen, sagte Konrad Zuse als Begründung für die Entwicklung seines Computers. War vor 75 Jahren absehbar, welche bahnbrechende Erfindung der Bauingenieur gemacht hatte?
CHRISTOF SCHÜTTE: Was sich aus dem Z3 entwickeln würde, hat damals niemand wissen können – auch Konrad Zuse nicht. Klar war nur, dass ein schnell rechnendes System Vorteile mit sich bringt. Es gab ja dies- und jenseits des Atlantiks schon Vorläufer des Z3, bloß funktionierten die nicht vollständig und waren nicht programmierbar.

Christof Schütte ist Professor für Numerische Mathematik und Scientific Computing an der Freien Universität und Präsident des Zuse-Instituts Berlin (ZIB).
Christof Schütte ist Professor für Numerische Mathematik und Scientific Computing an der Freien Universität und Präsident des...Foto: Freie Universität Berlin

Was war das Revolutionäre an Zuses Z3?
JOCHEN SCHILLER: Vor dem Z3 gab es schon Geräte, die etwa addieren konnten. Aber die konnten dann auch nichts anderes. Mit dem Z3 war es möglich, erstmals eine Abfolge von Befehlen festzulegen und beliebig zu ändern. Das war der erste Schritt zum freien, kreativen Programmieren.

SCHÜTTE: Revolutionär war, dass mit dem Z3 die Grundkomponenten des Computers, die Logik und das Rechnen, ingenieursmäßig in einem Gerät zusammengeführt wurden. Das digitale Konzept dahinter – nämlich alle Zahlen als Nullen und Einsen und jede logische Operation nur als wahr oder falsch darzustellen –, das hat Zuse nicht erfunden. Aber er war der Erste, der es in eine Maschine umgesetzt hat.

Jochen Schiller ist Professor für Technische Informatik an der Freien Universität und Experte für IT-Sicherheit.
Jochen Schiller ist Professor für Technische Informatik an der Freien Universität und Experte für IT-Sicherheit.Foto: Freie Universität Berlin

Zuses Z3 war so groß wie drei Kühlschränke und hatte Speicherplatz für gerade einmal 64 Worte. Heute passen auf einen fingernagelgroßen USB-Stick eine halbe Million Bücher – ohne Komprimierung. Wo endet diese Entwicklung?
SCHÜTTE: Bei Zuse war jeder Transistor, also jedes Schaltelement greifbar. Zuses Sohn soll sie sich geklaut und damit seine Modelleisenbahn gesteuert haben, so groß waren die. Heute stecken allein in einem Smartphone etwa fünf Milliarden dieser Transistoren. Da passt das Wissen einer mittleren Bibliothek hinein. Die Auflösung dieser Transistoren ist jetzt fast auf der atomaren Ebene angekommen. Noch kleiner geht es kaum.

SCHILLER: In der Forschung ist das gerade ein großes Thema: Wie lässt sich die Rechengeschwindigkeit weiter auf kleinstem Raum steigern? Der klassische Transistor, wie er auch im Z3 steckt, muss in absehbarer Zeit abgelöst werden. Letztlich brauchen wir eine ganz neue Art von Rechnern. Quantentechnologien könnten hier eine Lösung bieten. Aber das wird noch Jahre dauern.

SCHÜTTE: Bei der Datenspeicherung gibt es substanzielle Probleme. Zum einen, weil wir immer mehr Daten produzieren, zum anderen, weil es noch keine Idee gibt, wie sie dauerhaft gesichert werden könnten. Die Haltbarkeit von Datenspeichermedien liegt aktuell bei weniger als zehn Jahren, weil sich die Technologie so rasant entwickelt, dass für ältere Speichermedien schlicht die Lesegeräte fehlen. Die Forschung muss sich nicht nur fragen, wie wir mehr Speicherkapazität schaffen, sondern auch, wie man Daten das wirklich Wichtige entnehmen kann, um dann auch nur das abzuspeichern.

Eine Welt ohne Computer, das ist kaum mehr vorstellbar. Was sind die größten Errungenschaften der Digitalisierung?
SCHILLER: Technisch meint Digitalisierung die Darstellung von allem in Einsen und Nullen. Das hat die Gesellschaft insofern umgewälzt, als dass mittlerweile alles Mögliche in diesen Code übersetzt wurde: Bilder, Filme oder Musik; ganze Industriezweige wurden digital ersetzt.

SCHÜTTE: Wenn Digitalisierung dafür steht, dass der Computer als Hilfsmittel überall eingesetzt wird, dann ist das gerade für die Wissenschaft eine echte Revolution. Neben der Theorie und dem Experiment haben wir jetzt eine dritte Säule in der Wissenschaft: die Simulation. Wir können durch Computerberechnungen Einblicke in Systeme gewinnen, die uns bislang real nicht zugänglich sind. Wir können zum Beispiel die molekularen Prozesse in unseren Zellen simulieren oder versuchen, den Klimawandel in Simulationen abzuschätzen. Und wir können ungeheure Datenmengen erfassen und systematisch nach Erkenntnissen durchleuchten, etwa bei der verbesserten Frühdiagnose von Krebs durch Analyse sehr vieler Patientendaten. Auf der anderen Seite gibt es auch Schattenseiten, mit denen wir uns auseinandersetzen müssen, es sei nur auf das elektronische Ausspähen unserer Privatsphäre durch die Geheimdienste verwiesen. Es gibt keine Entwicklung, die risikofrei ist.

Wo sehen Sie heute die größten Sicherheitsrisiken?
SCHILLER: Die Gefahr liegt in der Komplexität der Systeme. Wir möchten alles miteinander vernetzt haben, aber wir beherrschen die Systeme nicht. Mit dem „Internet der Dinge“, bei dem Gegenstände selbstständig miteinander kommunizieren, steht der nächste exponentielle Sprung in der Komplexität an. Sind die digitalen Schnittstellen schlecht geschützt, können die Systeme gehackt und übernommen werden, Ihr Auto genauso wie ein industrieller Großreaktor. Wir können diese Entwicklung nicht aufhalten, aber wir müssen wenigstens versuchen, darüber nachzudenken, wie wir Risiken voraussehen oder verringern können.

SCHÜTTE: Neben den Sicherheitsrisiken hat das natürlich auch gesellschaftliche Folgen, wie das Verschwinden von Arbeitsplätzen oder die Gefahr, dass wir in Zukunft die Wirklichkeit nicht mehr von einer virtuellen Realität unterscheiden können.

Haben Politiker oder Juristen bei dieser rasanten digitalen Entwicklung überhaupt die Chance, etwas zu regeln?
SCHILLER: Nur eine geringe, allein, weil Juristen meist auf nationales Recht spezialisiert sind. Aber das Digitale macht an Ländergrenzen nicht halt. Und selbst beim nationalen Recht: Es hat Jahre gedauert, bis in Deutschland ein Sicherheitsgesetz für Informationstechnik verabschiedet wurde, obwohl es zwischenzeitlich etliche Vorfälle gab. Oder nehmen Sie das Thema Strafverfolgung im Netz: Wie will die Polizei illegale Daten in einer Cloud beschlagnahmen? Da gibt es noch kein Verfahren, das vor Gericht standhält. Es stimmt, das Internet ist kein rechtsfreier Raum. Aber bislang läuft die Justiz der Technik hinterher.

SCHÜTTE: In der Politik ist es ähnlich: Keine Regierung der Welt hat wirklich Einfluss auf technische Entwicklungen. Wir leben in einer Zeit, in der wir auf unbekannte Gebiete vordringen. Eine Art moderner „Wilder Westen“, in dem vieles ungeregelt ist und in dem wir nach Instrumenten suchen, die uns eine Form der Kontrolle geben könnten. Aber die wird es wahrscheinlich in den nächsten zwei Jahrzehnten nicht geben.

Der Physiknobelpreisträger Stephen Hawking und andere Experten haben wiederholt vor selbstlernenden Computern gewarnt, insbesondere wenn diese für autonome Waffensysteme genutzt würden. Sie befürchten ein Wettrüsten der künstlichen Intelligenz. Halten Sie diese Sorgen für berechtigt?
SCHÜTTE: Dazu gibt es mehrere Meinungen. Einerseits hat bislang keine Maschine den sogenannten Turing-Test bestanden, ein in den 1950er Jahren entwickeltes Verfahren, mit dem die Intelligenz von Computern geprüft werden kann. Selbst Skeptiker gingen damals davon aus, dass es um das Jahr 2000 intelligente Maschinen geben wird. Das ist aber in der Form bislang nicht eingetreten. Was die Waffensysteme betrifft, bin ich sehr pessimistisch. Damit meine ich keine Kampfroboter. Aber die Möglichkeiten elektronischer Kriegsführung, etwa indem ein Kraftwerk mit einem Computer-Virus lahmgelegt wird, sind längst Realität. Wir sind uns dessen nur noch nicht bewusst.

SCHILLER: Selbst wenn es heute noch der Mensch ist, der entscheidet, ob auf ein Ziel geschossen wird oder nicht: Die Bilder, anhand derer er oder sie die Entscheidung trifft, stammen aus einem Computersystem, das mit Algorithmen arbeitet.

Nach dem Wunsch des Regierenden Bürgermeisters Michael Müller soll Berlin mit einem Zehn-Punkte-Plan zur digitalen Hauptstadt werden. Wie zuversichtlich sind Sie in dieser Hinsicht?
SCHÜTTE: Berlin hat durchaus Potenzial, in der digitalen Welt eine Rolle zu spielen – wenn man die Institutionen und Unternehmen der Stadt zusammenbringt. Die Hauptstadt ist aktuell sehr angesagt und die Forschungslandschaft äußerst agil. Aber die Entwicklung muss gesteuert werden. Informationstechnik muss als Forschungsthema ernst genommen und gefördert werden, und zwar quer durch alle Disziplinen. Da reichen die im Zehn-Punkte-Plan vorgesehenen Investitionen nicht aus, fürchte ich. Wir sehen, dass außerhalb Europas wahnsinnig viel in Köpfe und in IT-Infrastruktur investiert wird. Im internationalen Vergleich wird Deutschland zurückfallen, wenn wir nicht wirklich alle Kräfte bündeln und mobilisieren.

SCHILLER: Das kann der Staat in Eigenregie nicht schaffen. Allein bei der digitalen Infrastruktur wie einer vollständigen Glasfaservernetzung oder WLAN-Abdeckung entstehen enorme Kosten, da muss es öffentlich-private Partnerschaften geben. Und wir müssen mehr in die nachhaltige Ausbildung investieren. Damit ist nicht gemeint, dass alle Schüler programmieren lernen, aber wir müssen die jungen Menschen auf die gesellschaftlichen Chancen und Risiken der Digitalisierung vorbereiten und auf den richtigen Umgang damit. Andere Bundesländer machen das, indem sie Informatik als Pflichtfach in der Schule anbieten.

Bei einer Konferenz des Zuse-Instituts Berlin anlässlich des Z3-Jubiläums geht es am 11. Mai um die digitale Zukunft. Wie sieht die digitale Welt Ihrer Ansicht nach in 25 Jahren aus?
SCHÜTTE: Was dann sein wird, kann niemand sagen. Wir befassen uns bei der Konferenz vor allem mit dem wissenschaftlichen Blick auf die Digitalisierung. Wie lassen sich Massendaten analysieren? Und wie machen wir diese Unmengen an Daten den Menschen zugänglich? Was wird in der Simulation möglich? Kommt die künstliche Intelligenz? Die Entwicklung der „Open Science“, des weltweiten Zugriffs auf Forschungsdaten, ist ein anderes Thema. Und was müssen Studierende – bei all diesen Entwicklungen – heute wissen? Manches ändert sich schneller, als wir es überhaupt lehren können. Das heißt, wir müssen Teile der Ausbildung neu erfinden.

SCHILLER: Zum Glück ist das Grundlagenwissen, das wir vermitteln müssen, gleich geblieben. Die Rechner von heute funktionieren nicht anders als der Z3 von Konrad Zuse, sie sind nur schneller. Das Prinzip ist nach wie vor dasselbe.

TAGUNG DIGITALE ZUKUNFT

Die Auswirkungen der digitalen Revolution auf Wissenschaft und Gesellschaft sind Thema einer internationalen Konferenz des Zuse-Instituts Berlin (ZIB) und des Tagesspiegels am 11. Mai im KOSMOS Berlin (Karl-Marx-Allee 131a, 10243 Berlin), bei der führende Mitglieder der Bundes- und Landesregierung als Festredner geladen sind. Um an der englischsprachigen Konferenz teilzunehmen, geben Sie bitte auf www.science-match.info unter „Anmeldung“ den Voucher-Code „zuse75-fu“ ein. Die Freie Universität ermöglicht den ersten 20 Leserinnen und Lesern eine kostenlose Teilnahme.

1 Kommentar

Neuester Kommentar