zum Hauptinhalt

Panorama: Wie Computer sehen lernen

Visual Computing war einst ein exotischer Teilbereich der Informatik. Heute boomt das Fach – und schafft neue Jobs in vielen Branchen

Am Fraunhofer Institut IGD in Darmstadt versuchen Wissenschaftler, dem Computer das Sehen beizubringen. „Sie glauben gar nicht, wie schlecht ein Rechner gucken kann!“, sagt Arjan Kuijper, Wissenschaftler am Institut, und lacht. Für ihn ist der Computer, der sehen kann, die Zukunft. „Wir Menschen sind visuelle Wesen“, sagt Kuijper. „Daher kommt unser Bedürfnis, diese Sehfähigkeit auf den Computer zu übertragen.“ Das Institut arbeitet mit der Technischen Universität in Darmstadt zusammen, der dazugehörige Studiengang heißt „Visual Computing“.

Das Fach ist ein Teilbereich der Informatik. Hier geht es um die Erzeugung und Darstellung von Bildern auf dem Computer. Die Wissenschaftler wollen dem Computer beibringen, aus einer Ansammlung von Pixeln tatsächlich einen Gegenstand zu erkennen. Sehende Computer könnten zum Beispiel die Forschung unterstützen. Eine weltweite Datenbank, die das Kulturerbe der Menschheit digital archiviert, könnte daraus entstehen. Was archiviert ist, könne man noch untersuchen, wenn es in der Realität gar nicht mehr existiert. „Ich könnte dem System sagen: Zeige mir alle Vasen aus einer bestimmten Epoche mit zwei Henkeln“, sagt Kuijper. „Der Rechner muss dann wissen, was eine Vase ist und er muss wissen, was Henkel sind. Das ist nicht so trivial, wie es sich anhört.“

So eine Datenbank ist noch Zukunftsmusik – aber Visual Computing ist auch heute schon Teil unseres Alltags. Eine simple Anwendung ist der Pfandflaschenautomat im Supermarkt: Der erkennt innerhalb von Sekunden, ob die Flasche heil ist und ob der Supermarkt sie überhaupt im Sortiment hat. Nur dann akzeptiert er sie. „Das war vor ein paar Jahren noch völlig undenkbar, ist heute aber schon ganz normal“, sagt Kai-Uwe Barthel, Informatiker an der Hochschule für Technik und Wirtschaft Berlin (HTW). „Wir haben uns längst daran gewöhnt, das findet niemand mehr komisch.“

Ein schon weniger simples Beispiel ist die „Augmented Reality“. Wer eine entsprechende App auf seinem Smartphone oder seinem iPad installiert hat, kann überall und jederzeit weitere Informationen zu dem bekommen, was er sieht: Einfach das Gerät vor ein Gebäude halten und schon erfährt man, wer es gebaut hat, wie es früher aussah oder wer mal darin gewohnt hat. Das Smartphone „erkennt“, auf was es gerichtet ist und überblendet die natürliche Realität mit zusätzlichen Informationen.

Je besser ein Computer gucken kann, umso mehr Daten werden angehäuft. Deshalb beschäftigen sich die Wissenschaftler auch damit, wie man die Bilder in möglichst einfache Rechenschritte verpackt, so dass man sie leicht verarbeiten kann. „Das Problem ist nicht der Speicherplatz, der wird immer billiger und ist in großen Mengen vorhanden“, sagt Arjan Kuijper. „Die Herausforderung ist vielmehr: Wie finde ich die Bilder wieder? Und wie mache ich sie auch auf einem Mobiltelefon verfügbar?“

Um Visual Computing zu studieren, muss man aber nicht unbedingt nach Darmstadt ziehen, auch die Berliner Universitäten beschäftigen sich damit. An allen Universitäten gibt es entsprechende Projekte in den Informatik-Fachbereichen. An der Humboldt Universität (HU) kann man Visual Computing als Aufbaufach belegen. „Wir kümmern uns vor allem um bildgebende Verfahren in der Medizin“, sagt Professor Peter Eisert. Hochwertige Kameras und die computergestützte Auswertung der Bilder soll den Chirurgen während der Operation unterstützen. Die Operation soll dadurch für den Patienten schonender verlaufen, die Wunde schneller heilen.

Neu ist das Interesse der Informatiker an Bildern nicht. Schon seit mehr als zwanzig Jahren beschäftigen sie sich damit. Aber in den vergangenen Jahren hat die Entwicklung in dem Bereich enorm Fahrt aufgenommen. Die Begründung ist einfach: Moderne Computer verfügen über die notwendige Rechenleistung, immer bessere Kameras stellen gute Bilder zur Verfügung. „Früher war das eher eine Spielerei, der Nutzen sehr begrenzt“, sagt Eisert. „Heute haben wir endlich ein Umfeld, in dem wahnsinnig viel möglich ist.“

Und die Anwendungsgebiete sind mannigfaltig. So war das Fraunhofer IGD an einem Projekt zur Gesichtserkennung auf dem Flughafen Berlin-Schönefeld beteiligt. Bei dem neuen Verfahren wird das Gesicht des Menschen nicht mehr zweidimensional wie bisher, sondern dreidimensional erfasst. Das verringert die Fehlerquote bei der Erkennung, denn das System kann unterschiedliche Körperhaltungen oder Gesichtsausdrücke unterscheiden. Außerdem kann es nicht mehr mit einem Foto getäuscht werden.

Auch in der Automobilindustrie findet die Technik Anwendung: Autos werden mit Kameras ausgestattet, die erkennen können, ob ein Kind auf die Straße läuft. Im Maschinenbau hilft die Technik in Zukunft, Geräte bei ihrer Fertigung auf Fehler zu überprüfen.

Schließlich profitiert auch das 3D-Fernsehen von der Forschung: Eisert und seine Kollegen tüfteln gerade an einer Möglichkeit, dreidimensional fernsehen zu können - ohne spezielle Brille.

Zur Startseite