Zeitung Heute : Der Computer im Reich der Sinne

CLAUDIA WAGNER

Wer hat sich nicht schon etliche Male über seinen Computer geärgert? Immer wenn es eilig ist, versagt das Gerät seinen Dienst, und nichts ist anscheinend schwieriger, als dem Gerät klarzumachen, was man gerade von ihm will.Überhaupt läßt die Kommunikation zwischen Mensch und Computer in vielerlei Hinsicht zu wünschen übrig.Kein Wunder also, daß sich auch die Wissenschaft des Themas angenommen hat: Unter dem englischen Titel "Human Computer-Interaction" (HCI) beschäftigt sich die moderne Psychologie mit der Problematik und versucht, das Zusammenspiel zwischen Mensch und Computer zu optimieren.Der Rechner soll den Bedürfnissen des Menschen so angepaßt werden, daß eine effiziente und benutzerfreundliche Handhabung gewährleistet wird.

Erste Versuche, den Computer menschlicher zu gestalten, gibt es bereits.Man kennt solche Tendenzen von den verschiedenen Hilfsassistenten seit Windows 95.Auch auf dem Gebiet der klassischen Programmierung, die mit rein logischen Systemen arbeitet, ist man dem Ziel schon sehr nahe gekommen.Man denke nur an das Schachduell zwischen Kasparow und "Deep Blue", dem IBM-Hochleistungsrechner.Die Künstliche Intelligenz (KI) scheint die natürlichen Leistungen sogar zu übertreffen.Es handelt sich hier allerdings vor allem um eine Frage der Rechenleistung.

Diese Art der Programmierung blendet aber menschliche Fähigkeiten wie Assoziation, Intuition und Wahrnehmung immer noch weitgehend aus.Was solchen Programmen noch fehlt, ist unter anderem ein körperliches Bezugssystem, das das Verhältnis zur Umwelt herstellt, und das der Mensch mit seinen Sinnen von Natur aus besitzt.Aber die scheinbar primitiven Funktionen der Sinneswahrnehmung sind äußerst schwierig digital zu simulieren.Dem Computer das Sehen, Hören, Tasten oder Riechen beizubringen, ist erheblich heikler als angenommen."Auf der Wahrnehmungsebene lernt der Mensch durch Übung", erklärt Klaus Obermayer vom Institut für Neuroinformatik der TU Berlin.Ein Zugang über bewußte Selbstbeobachtung, die dann einfach in logische Regelsysteme übertragbar wäre, sei deshalb für Computer und deren Konstrukteure nicht möglich.Ein Beispiel: Allein um die Aufgabe der menschlichen Netzhaut zu bewältigen, sind etwa eine Milliarde Berechnungen pro Sekunde (die durchschnittliche Leistung eines Supercomputers) nötig.Die Konstruktion von Systemen, die die physische Welt wahrnehmen können, setzt also enorm leistungsfähige Rechner voraus.Als Ausweg suchte man bereits in den 40er Jahren Systeme, die nach dem Vorbild des menschlichen Gehirns arbeiten und die heute unter der Bezeichung "Neuronale Netze" laufen.Die ersten Versuche scheiterten aber an der geringen Rechenkapazität der damaligen Computer, so diese überhaupt mit heutigen Geräten verglichen werden können.Heute gibt es bereits den Nervenzellen des Menschen nachgebildete Netze, die sich selbst strukturieren und damit lernfähig sind."Man konfrontiert den Computer mit einer konkreten Aufgabe, für die er dann mittels eines bestimmten Algorithmus eigenständig eine Lösung findet, ohne daß vorher alle Möglichkeiten Schritt für Schritt eingegeben werden", erklärt Klaus Obermayer.Der Computer paßt sich also den geänderten Bedingungen selbständig an."Reinforcement Learning" nennt man das im Fach-Jargon.Allerdings sind die neuronalen Netze nur ein stark vereinfachtes Modell des menschlichen Gehirns: sie enthalten zumeist nicht mehr als einige hundert neuronensimulierende Prozessoren, während das Gehirn aus rund einer Milliarde Nervenzellen besteht.

Auf dem Gebiet der maschinellen Bild- und Sprachverarbeitung, die sich solche Netze zunutze macht, ist die Forschung relativ weit fortgeschritten: Programme zur Bild- und Spracherkennung sind längst keine Seltenheit mehr.Kamera und Mikrofon leiten Informationen von außen an den Computer weiter.Für die nächsten zehn Jahre kündigen Experten ein enormes Wachstum auf diesen Gebieten an.Die Erkenntnisse werden aber nicht ausschließlich für die Mensch-Maschine-Interaktion eingesetzt, sondern auch für den Bau von Robotern und Maschinen, die Aufgaben des Menschen übernehmen sollen.An der TU zum Beispiel gibt es Projekte zum Bildverstehen autonomer Fahrzeuge oder zu Systemen, die die Klangqualität von Lautsprechern ermitteln.

Augen und Ohren haben die Rechner damit also bereits in Ansätzen erhalten.Komplizierter wird es, wenn es darum geht, künstliche Nasen herzustellen.Das Problem dabei sind hauptsächlich die Sensoren.Die Münchner Firma HRK Sensorsysteme hat jedoch ein "Intelligentes System zur Geruchsstofferkennung" hergestellt, das nach Vorbild des natürlichen Geruchssinns arbeitet.Mittels einer Reihe unterschiedlicher chemischer Sensoren werden dabei Signalmuster eines bestimmten Duftes gefunden.Die gelieferten Messungen werden dann mit Hilfes eines neuronalen Netzes, das vorher "trainiert" wird, ausgewertet.So können Gerüche zum Beispiel von Lebensmitteln oder Tabak wiedererkannt werden.

Die lernenden Computer, die sich auch sinnlich in der Welt orientieren können, sind sicher eine zukünftige Schlüsseltechnologie.Die meisten Techniken sind jedoch noch so wenig entwickelt, daß es wohl eine gute Weile dauern wird, bis sie für die Mensch-Computer-Interaktion eine Rolle spielen.Vielleicht merkt der Computer dann endlich, wenn uns mal wieder etwas stinkt!

Tagesspiegel - Debatten


Hintergründe und Expertisen zu aktuellen Diskussionen: Tagesspiegel Causa, das Debattenmagazin des Tagesspiegels.

Hier geht es zu Tagesspiegel Causa!

0 Kommentare

Neuester Kommentar
      Kommentar schreiben