Künstliche Intelligenz : Der Journalist, ein Roboter?

Algorithmen schreiben über Basketball-Ergebnisse. Programme informieren über Erdbeben. Doch bei allen Fortschritten der künstlichen Intelligenz bereiten Anomalien den Expertensystemen die größten Schwierigkeiten.

Adrian Lobe
Foto: imago/Unimedia Images
Foto: imago/Unimedia ImagesFoto: IMAGO

Die Meldung „Dallas Mavericks vs. Golden State Warrior: 85:108. Warriors deklassieren Nowitzkis Mavericks“ wird vermutlich keinen Pulitzerpreis bekommen. Das eigentlich Verblüffende daran ist, dass sie nicht von Menschenhand, sondern von einer Maschine geschrieben wurde. Die Stuttgarter Kommunikationsagentur aexea hat erstmals eine Software vorgestellt, bei der ein Algorithmus Daten aus verschiedenen Quellen verknüpft und anschließend automatisiert Überschriften und Text formuliert. Artikel per Knopfdruck. Im März hatte ein Algorithmus eine Meldung über ein Erdbeben in Los Angeles verfasst. Die Erde zitterte noch, da war die Meldung bereits im Netz. Erdbebenstärke, Epizentrum, Uhrzeit – die Nachricht enthielt alle relevanten Informationen.

„Das Potenzial des automatisierten Journalismus ist, dass er schnell über plötzlich auftretende Phänomene berichten kann. Es erspart Redakteuren Zeit und gibt ihnen die Möglichkeit, sich komplexeren Themen zuzuwenden, die interpretations- und erklärungsbedürftig sind“, beschreibt Mark Riedl, Professor an der Georgia Tech School of Interactive Computing, die Möglichkeiten der neuen Technik. Journalisten müssten nicht mehr kleinteilige Meldungen verfassen, sondern könnten mehr Zeit für Recherche aufwenden. Der Computer schreibt von selbst. Schneller und billiger. Ist das die Zukunft? „Ich denke, dass automatisierte Systeme eine aktivere Rolle im Journalismus spielen werden“, sagte Riedl dem Tagesspiegel.

Algorithmen sind längst keine stupiden Rechenmaschinen mehr, sondern lernfähig. Unter dem Stichwort „Deep Learning“ arbeiten Softwareentwickler an immer ausgefeilteren Algorithmen. Die Idee: Statt dem Algorithmus ständig Dinge beizubringen, stattet man ihn mit gewissen Grundlagen aus, auf die er dann selbstständig aufbauen kann. Es funktioniert wie bei der Erziehung: Zuerst nimmt ein Kind Geräusche wahr, dann Worte und schließlich Sätze. 2011 bastelte der Stanford-Forscher Andrew Ng im Rahmen des Google Brain Project aus 16 000 Prozessoren ein künstliches neuronales Netzwerk, das aus zehn Millionen Youtube-Videos Katzen identifizierte. „16 000 Computer, um eine Katze zu erkennen?“, fragte die „New York Times“ damals etwas skeptisch. Doch die Leistung war beachtlich. Den Algorithmen wurde nämlich gar nicht beigebracht, was eine Katze ist. Das taten sie selbst. Die findigen Programme durchforsteten das Pixelmaterial nach wiederkehrenden Mustern und konvertierten die Bilder in schier unendlich lange Zahlenreihen. Zuerst lernte das Netzwerk, helle von dunklen Mustern zu unterscheiden, dann Pixel zu Linien zu verbinden, und schließlich, über eine Stufenfolge von immer allgemeineren Merkmalen, erlernte es die Katzenerkennung. Learning by doing.

Zwischen den Internetgiganten gibt es einen Wettlauf um die klügsten Köpfe

Die künstliche Intelligenz macht stetig Fortschritte. Im geheimen Google X Labor tüfteln Forscher am selbst fahrenden Auto und an der Optimierung der Datenbrille Google Glass. Können Maschinen ein intellektuelles Eigenleben entwickeln? Dieser Gedanke elektrisiert die Forscher. Zwischen den Internetgiganten Facebook, Microsoft und Google tobt ein regelrechter Wettkampf um die klügsten Köpfe. Microsoft beschäftigt heute allein 70 Experten im Bereich Deep Learning. Doch Fachleute sind rar. Und Expertise teuer. Anfang des Jahres erwarb Google das britische Start-up DeepMind, das auf künstliche Intelligenz spezialisiert ist, für geschätzte 365 Millionen Euro und bugsierte Konkurrent Facebook aus dem Bieterrennen. Der Wettlauf um die besten Big-Data-Lösungen hat gerade erst begonnen.

Im Internet fallen gigantische Datenmengen an. Laut einer Studie der Internationalen Data Corporation (IDC) wird das Datenvolumen von derzeit 4,4 Zettabyte auf 40 Zettabyte (ein Zettabyte sind eine Milliarde Terabyte) im Jahr 2020 anwachsen. Das entspricht nach Schätzungen von Wissenschaftlern ungefähr 57 Mal der Menge an Sandkörnern aller Strände der Erde. Das Problem ist, dass 90 Prozent der Daten unstrukturiert sind, das heißt, sie sind spontan generiert und können nicht eingeordnet werden. Allein auf Facebook werden täglich 350 Millionen Fotos hochgeladen. Es ist, als würde man jeden Tag eine Sandwüste über der Erde auskippen. Die Herausforderung besteht nun darin, die Daten zu strukturieren und die Informationen zu interpretieren.

Google hat vor kurzem einen Algorithmus entwickelt, der Hausnummern aus den Fotoaufnahmen von Google Street View erkennt und digital erfasst. Von den 200 000 Hausnummern erkannte die Software 98 Prozent – ein erstaunlicher Wert. Die Software entzifferte pixelige, bisweilen schräg angeordnete Hausnummern. Der nächste Schritt wäre, die Automarke vor der Haustür zu erfassen, um daraufhin Werbung zu lancieren. Google will die Welt bis ins kleinste Detail kartografieren. In den Tiefen des Datenozeans lagern noch weitere Schätze, die Google mittels Deep Learning und anderen Techniken heben will.

Bei der Gesichtserkennung sind die Maschinen gleichauf

Auch Facebook hat ein eigenes Lab für künstliche Intelligenz eingerichtet. Vor kurzem stellte der Konzern aus Kalifornien seine neue Gesichtserkennungssoftware DeepFace vor. Anders als bei der normalen Gesichtserkennung wird dabei nicht ein Gesicht einem Namen zugeordnet, sondern ein Gesicht einem Gesicht. DeepFace generiert zunächst ein 3-D-Modell des abgebildeten Kopfes und rotiert diesen dann dergestalt, dass er die virtuelle Kamera frontal ansieht. Anschließend werden markante Punkte des Gesichts abgebildet und mit anderen Bildern verglichen. Auf diese Weise kann Facebook auch die Bilder einer Person mithilfe des Profilfotos zuordnen, die nicht getaggt wurden. Wenn zum Beispiel eine Person im Fotoalbum einer Brauerei auftaucht, kann Facebook daraus schließen, dass die Person gern dieses Bier konsumiert – und passgenaue Anzeigen unterbreiten. Das Programm arbeitet verblüffend genau. Die Software erkennt in 97,25 Prozent der Fälle, welche Person auf einem Foto zu sehen ist – der Mensch kommt auf eine Erkennungsrate von 97,5 Prozent. „Wir erreichen nahezu menschliche Fähigkeiten“, sagte Facebooks Entwickler Yaniv Taigman.

Das gibt zu denken. Um zu lernen, müssen die Computer mit immer größeren Datenmengen gefüttert werden. Dies erfordert wiederum immer größere Rechenkapazitäten. Die Frage ist: Wo liegt der Grenznutzen? Immer mehr Daten und ausgefeiltere Algorithmen führen nicht unbedingt zu einem höheren Lernerfolg. Der Computerexperte Mark Riedl sagt: „Ein automatisiertes System kann bestimmte Daten abfragen, vielleicht ein paar Berechnungen anstellen und Textbausteine generieren.“ Etwa kurze Sportmeldungen oder Bilanzberichte von großen Firmen.

Doch auch hier gibt es Grenzen. „Unstrukturierte Daten, wie etwa natürliche sprachliche Texte, sind viel schwerer zu verfassen, weil ein intelligentes System Semantik, Mehrfachbedeutungen und Ambivalenzen berücksichtigen muss“, so Riedl. Vor allem Anomalien seien für Expertensysteme schwer zu verstehen. Solche Unregelmäßigkeiten sind aber gerade bei investigativen Geschichten wichtig. „Für ein automatisiertes Systeme stellen Anomalien Ausreißer im Datensatz dar“, erklärt Computerexperte Riedl. Ein solcher Fehler im System kann völlig bedeutungslos sein, aber auch irgendetwas Wichtiges indizieren. Allein, die künstliche Intelligenz ist noch nicht soweit, dies zu beurteilen. Bits funktionieren nicht wie Neuronen im Gehirn. Fakt ist: Algorithmen sind kein Heilsversprechen. Sie machen Produktionsabläufe effizienter, aber keineswegs besser. Und letztlich kann nur ein Mensch Fakten prüfen und einordnen – das Denken nimmt ihm die Maschine nicht ab.

4 Kommentare

Neuester Kommentar
      Kommentar schreiben