Algorithmen : Sie wissen, was wir fühlen

Computer lernen, Gefühlsäußerungen im Netz automatisch auszuwerten. Das freut die Werbewirtschaft und die Forschung. Eines Tages könnten so sogar Wahlergebnisse vorhergesagt werden.

von
Noch haben Algorithmen Schwierigkeiten, die Einstellungen und Gefühle, die in menschlichen Meinungsäußerungen stecken, richtig zu deuten. Doch die Wissenschaft verzeichnet erste Erfolge. Foto: p-a
Noch haben Algorithmen Schwierigkeiten, die Einstellungen und Gefühle, die in menschlichen Meinungsäußerungen stecken, richtig zu...Foto: p-a

Barack Obamas „Net Sentiment“, also die Stimmung zu seinen Gunsten in den sozialen Netzwerken, betrug während der drei TV-Duelle im Schnitt plus elf Prozent, Mitt Romney schaffte nur minus acht. Beim Herausforderer standen 2,3 Millionen negative Kommentare 1,9 Millionen positiven gegenüber, beim Amtsinhaber waren es zwei Millionen positive versus 1,6 Millionen negative Äußerungen. Die „Gefühlsintensität“, also das Aufregerpotential Romneys lag bei 55. Obama, über den sich die Gemüter weniger erhitzten, kam auf einen Wert von 35.

Was sind das für Zahlen und Bewertungen, wer macht sich die Mühe, das zu erheben? Die Antwort ist, dass es kaum mehr Mühe kostet. Menschen sind nicht mehr nötig. Auch Computer können inzwischen Äußerungen auf ihren Gefühlsgehalt hin analysieren.

Im Fall der Obama-Romney-Auswertung hat SAP die Software zur Verfügung gestellt. Das „Sentiment Analysis Tool“, das Instrument zur Gefühlsanalyse, ist eigentlich ein Programm für Werbetreibende – und die Softwareschmiede SAP ist einer von vielen Anbietern, die gerade damit auf den Markt drängen. Fast in Echtzeit lässt sich mit den neuen Tools auswerten, mit welchem emotionalen Unterton im Internet über ein Thema, ein Produkt, ein Ereignis oder eine Person gesprochen wird. Bislang lassen viele Unternehmen das Raunen der Massen noch mit teils manuellen Verfahren analysieren, die komplett automatisierte Softwarelösung soll nun die nächste Generation des Monitorings der sozialen Netzwerke einläuten: Kein Praktikant mehr nötig, der Facebook-Foren überfliegt oder Twitter nach abwegigen Stichworten durchstöbert. Nicht nur das Sammeln der gigantischen Datensätze, auch das Lesen und Interpretieren übernimmt der Computer.

„Beim letzten amerikanischen Wahlkampf vor vier Jahren konnten wir lediglich auswerten, was die Menschen angeklickt oder weiterempfohlen haben“, erklärt SAP-Manager Craig Downing. „Jetzt sind wir einen großen Schritt weiter: Wir können verstehen, was sie in ihren Kommentaren schreiben.“ Und zwar schon wenige Minuten, nachdem die Diskussion stattgefunden hat.

Semantische Analyse heißt das Zauberwort – und die ist weitaus komplexer als das schlichte Zählen von Adjektiven oder Schimpfwörtern. „Ich kann sagen: ,Das Iphone war noch nie so gut‘ oder ,Das Iphone war noch nie gut‘“, erläutert Downing, „ein zusätzliches Wort – und der Inhalt der Aussage unterscheidet sich fundamental.“ Dazu kommen Slang oder Abkürzungen, grammatische Besonderheiten und mehrdeutige Modeworte wie „sick“ (das von „cool“ bis „abartig“ alles heißen kann).

Damit nicht genug. Die millionenfach aus dem Netz geklaubten Mitteilungen müssen auch nach Relevanz gewichtet werden: Wer ist der Absender, wie einflussreich ist seine Meinung, wie oft wird sie gelesen, wie oft wird ihr widersprochen oder zugestimmt? Das Programm liest dazu zum Teil im Sekundentakt hunderte von Newsseiten, Blogs und sozialen Netzwerken aus, bezieht bei der Auswertung der Quellen Informationen wie Seitenaufrufe, geografischer Standort, das mutmaßliche Geschlecht des Absenders und seinen „Klout-Score“ mit ein. Das ist ein nach der US-Firma „Klout“ benannter Index, der die Online-Relevanz von Personen ermittelt, mutmaßlich unter anderem anhand der Dichte ihrer Vernetzung oder der Häufigkeit, mit der ihre Nachrichten weitergeleitet werden. Das Problem: Wie korrekt, verlässlich oder vollständig sind die zusätzlichen emotionalen Parameter?

„Aus wissenschaftlicher Sicht sind die Methoden vieler kommerzieller Anbieter intransparent und oft auch ungenau“, sagt Stefan Stieglitz, Professor für Wirtschaftsinformatik an der Universität Münster. Er betreut derzeit gleich zwei interdisziplinäre Forschungsprojekte zur Diskursanalyse und Themendynamiken in Social Media, eins davon finanziert das Bundesministerium für Bildung und Forschung, das andere die Deutsche Forschungsgemeinschaft. Zusammen mit Computerlinguisten und Kommunikationswissenschaftlern will Stieglitz in den kommenden Jahren die dringend nötige Grundlagenforschung betreiben. „Es geht darum, automatisierte Verfahren zu entwickeln, mit denen Meinungsfragmentierung und Konsensbildung im Netz abgebildet werden können.“ Die Sentiment-Analyse ist dabei nur ein Baustein, sie wird ergänzt von der sozialen Netzwerkanalyse (wie verbreiten sich Themen?) und einer automatisierten Inhaltsanalyse (welche Schlagworte tauchen gemeinsam auf?).

Für das aktuelle Image einzelner Produkte oder Politiker interessieren sich Stieglitz und seine Kollegen dabei weniger. Es geht eher darum, die komplexe Dynamik gesellschaftlicher Kommunikation sichtbar zu machen. Wie und warum entsteht ein Thema, welche Meinungslager gibt es, wo findet ein argumentativer Austausch statt, wie verändert sich die Stimmung im Laufe einer Debatte? Für demokratische Prozesse könnten solche Analysen durchaus fruchtbar sein: „Wenn man in Echtzeit Trends oder Themen identifizieren kann, die in den Sozialen Medien bereits unterschwellig vorhanden sind, wäre das auch eine Art politisches Frühwarnsystem“, so Stieglitz.

Um das Aufspüren von Themen und Tendenzen geht es auch bei dem mehrsprachig angelegten Forschungsprojekt „TrendMiner“, das Thierry Declerck vom Deutschen Forschungszentrum für Künstliche Intelligenz koordiniert und das die EU fördert. Mehrere europäische Universitäten und einige mittelständische Software-Unternehmen gehören zu den Kooperationspartnern. Der Fokus von „TrendMiner“ liegt auf politischen Debatten und Finanzmarktvorhersagen. Von der semantischen Auswertung von Newstickern und Tweets erhofft man sich Erkenntnisse über die Wechselwirkungen von Netzmeinungen und Börsenschwankungen. „Viele Finanzanalysten nutzen Twitter“, erklärt Declerck. Künftig könnten die Äußerungen der Experten automatisch identifiziert und relativ schnell nach Inhalt, Relevanz und Einfluss klassifiziert werden. „Ungleich komplizierter ist dagegen die Analyse von politischen Debatten über Landesgrenzen hinweg“, so Declerck. In den Datenbanken, auf die die Semantik-Software zurückgreift, müssen dazu nicht nur die Namen, Titel, Funktionen und Spitznamen einzelner Politiker hinterlegt sein. Auch die Bezeichnung von Ämtern, die Strukturen von Staat und Parteien muss das Sprachprogramm kennen, um Kommentare auswerten und daraus möglicherweise Wahlprognosen ableiten zu können. Wie denken die Europäer in diesem Moment über Europa? Bis eine Software darauf eine differenzierte Antwort liefern kann, wird noch Zeit vergehen. „Abgesehen davon“, gibt Stefan Stieglitz zu bedenken, „kommunizieren bei Weitem nicht alle User im Netz über politische Inhalte.“ Diskursanalysen bilden nur die Meinungen derer ab, die in Foren aktiv sind. Und das ist eine Minderheit.

Aber auch Minderheiten, so sieht das SAP, können werberelevant sein. „Für den Hersteller von Düngemitteln ist es eine sehr interessante Information, ob Bauern einer bestimmten Region im Internet gerade über schlechte Ernten klagen“, sagt Craig Downing. Das Wissen über die Stimmung beim Verbraucher erlaube das Nachjustieren von Angebot und Marketingstrategie. Erst neulich habe ein Kunde aus der Filmbranche dank Sentiment-Analyse mitbekommen, dass sein Actionfilm bei 18- bis 25-jährigen Männern zwar gut ankam, deren Freundinnen aber überhaupt keine Lust auf den Streifen hatten. Die Werbekampagne wurde umgehend geändert und nun gezielt der romantische Plot des Films hervorgehoben. Und siehe da, auf einmal wollten die Frauen doch ins Kino.

1 Kommentar

Neuester Kommentar