zum Hauptinhalt
Mensch und Maschine. Gegen heutige Computerprogramme hat die menschliche Intelligenz keine Chance.

© Pexels / Pavel Danilyuk

Forschung zur Künstlichen Intelligenz: Vorbild Biologie

Wie funktioniert Künstliche Intelligenz? Und was ist eigentlich Intelligenz? Ein Gespräch mit Robin Hiesinger und Christoph Benzmüller.

Robin Hiesinger, Professor für Neurogenetik, untersucht an der Fruchtfliege, wie sich ein Gehirn vernetzt. Christoph Benzmüller, Professor für Informatik, forscht zu Künstlicher Intelligenz (KI) und hält Vorlesungen zur Ethik der KI. Die beiden Wissenschaftler der Freien Universität Berlin wollen herausfinden, wie intelligente neuronale Netzwerke entstehen. Im Gehirn wie im Computer.

Herr Professor Benzmüller, Herr Professor Hiesinger, was versteht man unter Künstlicher Intelligenz?

BENZMÜLLER: KI zeichnet sich dadurch aus, dass sie spezielle Probleme besser lösen kann als der Mensch: Tausende Röntgenbilder vergleichen, um kleinste Tumore zu finden etwa, oder automatische Gesichtserkennung. Das sind Beispiele für die „schwache KI“. Mich interessiert vor allem die „starke KI“, die alle menschlichen Fähigkeiten durch künstliche Systeme übertreffen will. Aber davon sind wir noch weit entfernt.

HIESINGER: Die Pioniere dieser Disziplin dachten an Maschinen, die etwas tun, für das ein Mensch Intelligenz bräuchte. Sie definierten also Intelligenz mit einer anderen Intelligenz!

Was zu der Frage führt: Was ist eigentlich Intelligenz?

HIESINGER: Als Neurobiologe fällt mir eine Definition schwer, und damit bin ich nicht allein. Wenn wir mit einer Person oder mit einer Maschine sprechen, können wir beurteilen, wie intelligent sie klingt. Tatsächlich gibt es bereits Maschinen, die so schlau reden, dass Menschen sich täuschen lassen. Man könnte also sagen: Wenn die KI es schafft, zu blenden, dann ist das eine Form von Intelligenz. Die Intelligenz einer Biene ist aber etwas ganz anderes.

BENZMÜLLER: Ich denke, starke KI braucht fünf Ebenen. Erstens Problemlösung – im Sinne der schwachen KI. Zweitens Unbekanntes explorieren – wie etwa der Mars-Rover, der in einer fremden Umgebung bestimmte Aufgaben erfüllen muss. Drittens rationales und abstraktes Denken. Viertens Selbstreflexion – also auch Erklärungen für Fehlversuche finden und Ergebnisse hinterfragen. Fünftens soziales Interagieren – die Korrelation zu den persönlichen Zielen und den Werten der Gesellschaft herstellen. Derzeit bewegt sich KI erst auf den Ebenen eins bis zwei.

Robin Hiesinger
Robin Hiesinger

© Privat

Verstehen Sie, dass Menschen Angst vor Maschinen haben, die intelligenter sein könnten als sie selbst?

BENZMÜLLER: Ja, natürlich. Und deshalb dürfen KI-Systeme ohne Reflexionsmechanismen in kritischen Bereichen – beispielsweise der Steuerung großer Energienetzwerke, automatisierter Finanzmärkte oder Waffentechnologie – nicht zu schnell und ohne flankierende Kontrollmechanismen eingesetzt werden.

Es fängt ja bereits beim autonomen Fahren an. Viele Menschen hätten Hemmungen, sich in solch ein Fahrzeug zu setzen.

HIESINGER: Aber in ein Taxi steigen sie ohne Bedenken! Dabei weiß niemand, was gerade in der Taxifahrerin oder dem Taxifahrer vorgeht. Ob die Person übermüdet ist oder abgelenkt, weil sie an ihr Kind denkt oder gerade in einer Lebenskrise steckt. Es ist erstaunlich, wie fehlerhaft unser Gehirn funktioniert, wie fehlerhaft unser Gedächtnis ist – und wie wenig wir als Neurobiologen bisher von all dem verstehen.

Darf ein Auto allein entscheiden, ob bei einem Unfall eher das Kind auf der Straße oder seine Fahrgäste getötet werden?

HIESINGER: Ob wir ein künstliches neuronales Netzwerk darüber entscheiden lassen wollen, ist wirklich eine gute Frage. Menschen überlassen wir solche Entscheidungen jeden Tag.

BENZMÜLLER: Da stimme ich zu. Wir arbeiten an Architekturen, die Antworten für sicherheitskritische Bereiche finden sollen. Genau wie bei der menschlichen Intelligenz brauchen sie zwei Handlungsebenen. Zum einen die intuitive, die sich schnell und effizient für die beste Option entscheidet, zum anderen die Fähigkeit, über die Aktion zu reflektieren und sie zu kontrollieren. Das führt nicht zu ethischen Maschinen. Aber zumindest zu pseudoethischen, weil sie die Werte abbilden, die wir ihnen vorgeben.

Christoph Benzmüller
Christoph Benzmüller

© Max Power

Worin liegt der wesentliche Unterschied zwischen einem biologischen Gehirn und einem künstlichen neuronalen Netzwerk?

HIESINGER: Künstliche neuronale Netzwerke werden designt, und bevor sie eingeschaltet werden, können sie absolut nichts. Sie müssen lernen. Dieses Training nimmt die meiste Zeit und Energie in Anspruch. Das menschliche Gehirn beruht nicht auf Datenbanken und führt keine mathematischen Operationen aus. „Daten“ werden durch sensorische Reize wie eine Welle in das Netzwerk gegeben. Und irgendwie ändern diese sensorischen Daten Tausende oder gar Millionen synaptischer Verbindungen. Aber bevor das Gehirn lernen kann, geschieht etwas, das in der KI noch gar nicht abgebildet ist: Aufgrund des Genoms wächst es. Strukturen kommen dazu, andere werden abgebaut, besonders während der Entwicklung. Babys kommen nicht mit einem zufällig verdrahteten Gehirn auf die Welt, werden dann „eingeschaltet“ und lernen. Sie besitzen von Geburt an eine Form von Intelligenz, auch wenn sie nicht sofort Differentialgleichungen lösen können.

BENZMÜLLER: Es gibt bereits Versuche, ein Genom mathematisch zu simulieren, und es gibt auch Ansätze, Topologien neuronaler Netzwerke dynamisch anzupassen beziehungsweise zu erlernen. Denkbar ist vieles. In der aktuellen KI-Forschung sollte man aber insbesondere Folgendes nicht außer Acht lassen: Immer komplexere, stromfressendere KI-Technologien zu entwickeln, ist ökologisch nicht vertretbar. Deshalb interessiere ich mich auch für die Integration von datengetriebener und regelbasierter KI, weil dadurch der KI-Datenhunger reduziert und zudem bessere abstrakte Erklärungen ermöglicht werden.

HIESINGER (lacht): Die gesamte Geschichte der KI ist der Versuch, biologische Details zu vermeiden bei dem Bestreben, etwas zu schaffen, das es bislang nur in der Biologie gibt. Indem man ein neuronales Netzwerk baut ohne die vielen Moleküle, die in unseren Nervenzellen notwendig sind, damit sie kommunizieren können. Etwas, das nur die mathematische Repräsentation der Essenz davon enthält – die Übertragung zwischen zwei Neuronen zu stärken oder zu schwächen. Meine Hypothese ist: Um menschliche Intelligenz zu erreichen, braucht man den gesamten Prozess des Wachstums und Lernens eines menschlichen Gehirns. Da gibt es keine Abkürzung!

Ihre beiden Fachrichtungen können offenbar einiges voneinander lernen – treffen sich aber praktisch nie. Robin Hiesinger hat ein Buch geschrieben – „The Self-Assembling Brain: How neural networks grow smarter“ –, in dem er fiktive Protagonistinnen und Protagonisten Ihrer beider Disziplinen in den Dialog treten lässt. Ginge das auch real?

BENZMÜLLER: Auf Konferenzebene ist das schwierig, weil wir noch keine gemeinsame Fachsprache haben. Aber wir sollten interdisziplinäre Veranstaltungen in das Studium integrieren. Um Forschergenerationen heranzubilden, die vernetzt sind und die entscheidenden Fragen und Weichen stellen. Auch in Ethikkommissionen.

Catarina Pietschmann

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false