Im Internet einkaufen oder Passwörter benutzen wäre ohne die Arbeit von Shafi Goldwasser nicht möglich. Am Montag wird die Informatikerin in Berlin geehrt.
Hall of Fame of the Digital Age
Am 12. Mai 1941, stellte der Ingenieur Konrad Zuse den ersten funktionsfähigen Computer Z3 in Berlin vor. Aus Anlass des 75-jährigen Jubiläums wählte das Zuse-Institut Berlin 75 Pioniere des digitalen Zeitalters, die der Tagesspiegel auf dieser Seite vorstellt. Das nächste Mitglied der "Hall of Fame of the Digital Age" wird am 12. Mai gekürt. Dann blicken das Zuse-Institut und der Tagesspiegel auf einer internationalen Konferenz in die digitale Zukunft. Mehr zur Veranstaltung "Digital Future": www.science-match.info
Aktuelle Artikel
75 Jahre nach der Vorstellung der legendären Z3: Was sich seitdem getan hat und was noch kommen könnte.
Aus einer Fülle unsortierter Daten Zusammenhänge herauslesen - so lernen Maschinen heute. Spezielle Algorithmen wie die Kernmethoden, die von Müller, Smola und Schölkopf entwickelt wurden, spielen dabei eine wichtige Rolle.
Mühsam war es, Transistoren und Widerstände auf Platinen zu montieren. Kilby und Noyce erfanden den integrierten Schaltkreis, in dem die Bauelemente "in einem Block" hergestellt wurden.
Die schnellste Bahn-Verbindung oder der kürzeste Fußweg - sie werden oft mit Hilfe eines Algorithmus gefunden, den der niederländische Mathematiker Edsger Dijkstra 1959 entwickelt hat.
Eniac war der erste rein elektronische Universalrechner. Gebaut wurde er von John Mauchly und John Presper Eckert im Auftrag der US-Army.
Von grob zu fein: Mit den von Wolfgang Hackbusch entwickelten Mehrgittermethoden lassen sich komplexe Prozesse besser simulieren. Das hilft etwa bei der Analyse von Grundwasserströmungen.
Computergrafik macht Daten erst ansehnlich - die Unterhaltungsbranche ist ohne sie kaum noch denkbar. Die Grundlagen schufen unter anderem Ivan Sutherland und James Clark.
Fingerabdruck statt Passwort: Anil K. Jain hat die biometrische Erkennung maßgeblich vorangebracht - und warnt regelmäßig vor den Gefahren.
Adele Goldberg sah bereits in den Siebzigern viele Entwicklungen voraus. Widerwillig berichtete sie Steve Jobs davon, der wohl manche Anregung mitnahm.
Digitalisierung heißt vor allem: gewaltige Datenmengen müssen organisiert werden. Michael Stonebraker hat maßgeblich dazu beigetragen, Datenbanken für Computer zu etablieren.
Mit der Dichtefunktionaltheorie (DFT) schufen Kohn und Sham eine Methode, um das Bindungsverhalten von Atomen zu simulieren. Das hilft bei der Entwicklung neuer Materialien und Medikamente.
Page und Brin entwickelten die erfolgreiche Suchmaschine Google. Heute führen sie einen Konzern, der fast alle webbasierten Anwendungen bietet, die man braucht. Nächstes Ziel: autonome Fahrzeuge.
Maurice Wilkes baute mit seinem Team den ersten praktisch nutzbaren Computer mit gespeichertem Programm: EDSAC.
Dantzig hatte es zunächst schwer, sich durchzusetzen. Er löste das "Transportproblem", wodurch effiziente Logistiklösungen möglich wurden.
Robert Tarjan hat Algorithmen entwickelt, die unter anderem bei der digitalen Vermittlung von Telefongesprächen über das Internet genutzt werden.
Ob in Firmennetzwerken oder bei Online-Spielen - verteilte Systeme setzen auf die Kraft vieler Rechner. Das ist elegant wie auch komplex. Nancy Lynch hat entscheidend zu einem besseren Verständnis dieser komplizierten Netze beigetragen.
Mark Zuckerbergs Netzwerk Facebook wurde in kürzester Zeit zum Sinnbild für das digitale Leben - mit Millionen Fans und Kritikern.
Ein Computer für jedermann - das war sein Traum. Als Mitbegründer von Apple verhalf Steve Wozniak dieser Vision, wahr zu werden.
SAP brachte seit den Siebzigerjahren die Computertechnik in zahlreiche Unternehmen. Heute ist die Firma Europas größter Softwarehersteller.
Immer auf Lücke, das ist die optimale Anordnung, um Kugeln dicht zu stapeln - behauptete Johannes Kepler vor über 400 Jahren. Thomas Hales bewies die Vermutung mithilfe eines Computers.
Gibt es mathematische Probleme, die auch mit den stärksten Computern nicht lösbar sind? Diese Frage warf Stephen A. Cook auf. Die Antwort fehlt bis heute.
Sie schaffen unglaubliche Rechenleistungen für zivile und militärische Anwendungen. Die Entwicklung der Supercomputer ist eng mit der Biografie Seymour Crays verknüpft.
Car und Parrinello entwickelten eine Methode, um komplexe chemische Reaktionen zu simulieren. Das nützt beispielsweise bei der Entwicklung neuer Medikamente.
Computerprogramme sollte man genauso sorgfältig formulieren wie literarische Texte, meint Donald Knuth. Seine Akribie ist legendär.
An Knoten von Computernetzwerken, die viele Signale verarbeiten müssen, kann es zum Stau kommen. Floyd entwickelte ein Verfahren, dass die Warteschlangen verkürzt.
Wladimir Wapnik lehrte Computer, Muster zu erkennen und vorherzusagen. Seine Arbeit wurde erst nach Fall des Eisernen Vorhangs anerkannt.
Als junger Elektroingenieur rutschte John Hopcroft mehr durch Zufall in die Computerwissenschaft hinein. Dann half er, die Informatik zu etablieren.
Mit 25 Jahren verblüffte Kurt Gödel mit seinem "Unvollständigkeitssatz" die Mathematiker. Und begründete mit ihm die theoretische Computerwissenschaft.
Noch sind Verschlüsselungen ziemlich sicher. Quantencomputer könnten sie mithilfes des Algorithmus von Peter Shor knacken.
Die "Geforce" ist das Flagschiff des Grafikkartenherstellers Nvidia - gegründet von Jen-Hsun Huang. Grafikchips sind nicht nur bei Gamern beliebt, sondern auch in Wissenschaft und Entwicklung, etwa bei selbstfahrenden Autos.
Computergrafik hat nicht nur die Unterhaltungsbranche revolutioniert. Sie kann auch in der Medizin helfen. Nadia Magnenat-Thalmann ist eine Pionierin auf diesem Gebiet.
Rivest, Shamir und Adleman entwickelten den RSA-Algorithmus, um Daten zu verschlüsseln. Das funktioniert sehr gut - solange die Quantencomputer noch nicht so weit sind.
Er fing bei Null an. Aber mit Energie und Leistungswillen baute Heinz Nixdorf ein Unternehmen auf, das selbst dem Computergiganten IBM lange Zeit Paroli bot.
Richard Garriott hat mit "Ultima Online" nicht nur das erste überzeugende Online-Rollenspiel erschaffen. Auch sein Leben hat etwas von einem Rollenspiel.
Joseph Licklider war der führende Geist hinter der größten Revolution der Neuzeit: Anfang der 60er Jahre sah er Personal Computer, Internet, digitale Bibliotheken, E-Commerce, Online-Banking und Cloud Computing voraus.
Herbert A. Simon war vieles: Sozialwissenschaftler, Psychologe, Wirtschaftsnobelpreisträger - und Pionier auf dem Forschungsgebiet der Künstlichen Intelligenz.
Jean E. Samet dachte Zuse weiter und entwickelte "Formac" - die Grundlage für Computeralgebra.
Erstaunlich viel Rechenzeit wird für Sortierungen verwendet - so lassen sich Einträge in langen Listen schneller finden. Tony Hoare hat mit dem Quicksort-Algorithmus eine wichtige Grundlage dafür geschaffen.
Damit das Internet funktioniert, müssen Computer eindeutig identifiziert und die Datenübertragung geregelt werden. Die Grundlagen dafür schuf Vinton Cerf.