
© Freepik, Bearbeitung: Tagesspiegel
Manchmal fühlt es sich wie Schummeln an: Warum die Arbeit mit KI so unzufrieden macht
KI erleichtert das Arbeiten, plötzlich geht vieles doppelt so schnell. Heißt es. Nur glücklicher macht es nicht. Vom Gefühl, der ewige Abschreiber zu sein.
Stand:
Ein Berufsleben ohne die KI wünscht sich Klara Schneider nicht zurück. „Ich arbeite praktisch jeden Tag mit ChatGPT zusammen“, sagt die 45-Jährige. Inzwischen sei das Sprachmodell von Open AI so etwas wie ein Kollege, mit dem sie sich regelmäßig austausche. Als freie Kommunikationsfachfrau entwickelt sie Podcasts für Verbände, gibt Social-Media-Workshops oder moderiert Podiumsdiskussionen.
Als Selbstständige arbeite sie dabei mit vielen Menschen zusammen, sagt Schneider, die eigentlich anders heißt. „Im Büro, wenn ich texte oder Präsentationen entwickle, bin ich aber zunächst einmal allein.“ In den vergangenen Jahren habe sich die generative KI so zu einem wichtigen Sparringspartner für erste Entwürfe und den letzten Schliff entwickelt.
Häufig sitze ich länger am Rechner, als wenn ich gleich alles selbst gemacht hätte.
Wer mit KI-Chatbots arbeitet, wie Klara Schneider, kennt dieses Phänomen.
Mitunter jedoch wünscht sie die künstliche Intelligenz auf den Mond. „An manchen Tagen kommt bei unserer Zusammenarbeit einfach nichts Zählbares rum“, sagt sie. Recherchen führten nicht zum Ziel, Texte würden schlechter statt besser, während die Abgabefrist für das Projekt unaufhaltsam näher rücke. „Es ist der pure Stress.“
Tools haben zwei Gesichter – KI hat drei
Claas Lahmann kennt solche Fälle. „Neue Tools in der Arbeitswelt haben immer zwei Gesichter“, sagt der Psychotherapeut, der als Professor an der Universität Freiburg unter anderem dazu forscht, wie Arbeit glücklich macht. „Sie können uns in unserem Job entweder entlasten oder ohnehin vorhandene Stressfaktoren noch verstärken.“
Wie Beschäftigte das empfinden, hänge davon ab, mit welchem Subtext der Arbeitgeber die Neuerungen einführt. „Habe ich Zeit, mich mit dem Neuen zu beschäftigen und den Umgang damit zu erlernen, empfinde ich es als Gewinn.“ Wachse jedoch der Druck auf Mitarbeitende, künftig mehr zu leisten, weil es das neue Werkzeug gebe, führe es zu Frustration. „Das ist bei jedem neuen Tool so.“
Bei großen Sprachmodellen wie ChatGPT oder Gemini von Google kommt aber ein entscheidender Faktor hinzu. „Diese Modelle machen etwas Perfides: Sie gaukeln uns ein menschliches Verhalten vor.“
Das ist wie ein KI-Impostor-Syndrom: Es kommt gut an, aber ich habe den Eindruck, ich hätte abgeschrieben.
Menschen empfänden die KI dadurch eher wie einen realen Kollegen oder eine Kollegin, als jemanden, mit dem man reden kann und der einen versteht. Laufe dann etwas schief – die KI antwortet nicht wie erwartet oder erhofft –, empfinde man seinen Ärger darüber entsprechend emotional, sagt Lahmann.
„Mit den Unzulänglichkeiten von Word lernt man umzugehen, falsche Antworten von ChatGPT nimmt man persönlich – immer wieder.“
Die emotionale Verbindung, die Sprachmodelle in den Nutzenden erzeugen, ist kein Zufall, sondern der erklärte Wille ihrer Entwickler. Ein KI-Assistent solle sich zwar nicht wie ein Freund verhalten, schreibt Open AI, die Firma hinter ChatGPT – aber wie ein Kollege. Nicht steif und förmlich, sondern höflich, verständlich, professionell, nahbar.
Virtueller Kollege als eingebauter Stressfaktor
Dieses Prinzip jedoch, sagen Experten, sei zugleich ihre große Stärke und ihre Achillesverse. „Große Sprachmodelle missverstehen, wie ich als Mensch denke und arbeite“, sagt Thorsten Zander, Lichtenbergprofessor für Neuroadaptive Mensch-Maschine-Interaktion an der Brandenburgischen Technischen Universität (BTU) Cottbus-Senftenberg.
ChatGPT könne Worte zwar korrekt benutzen, wisse aber nicht um die Bedeutung, was Menschen kulturell, moralisch oder biografisch als selbstverständlich empfinden. So aber fehle die gemeinsame Basis. Oder auf den Arbeitskontext übertragen: das Wissen darum, welchen Gedanken die Person vor dem Bildschirm genau nachhängt und an welcher Stelle die KI sie genau abholen müsste.
Im Ergebnis bedeutet das nicht selten Mehrarbeit, obwohl man eigentlich auf weniger gehofft hatte. „Ich verbringe inzwischen viel Zeit damit, zu überprüfen, was die Maschine gemacht hat“, sagt Kommunikationsfachfrau Klara Schneider. Oft schreibe sie neue Prompts, um ein besseres Resultat zu bekommen, korrigiere Texte der KI oder formuliere sie gleich ganz neu.
Eher mehr als weniger Arbeit
Diesen Gap in der Kommunikation zwischen Mensch und Maschine zu schließen, sei zentral, sagt Wissenschaftler Zander. „Das ist ein Riesenproblem, meiner Ansicht nach das größte, an dem die Branche derzeit arbeitet.“
Ganz egal, ob Open AI, Alphabet, Microsoft oder einer der anderen Anbieter das Problem zuerst in den Griff bekommt – es könnte ein enormer Wettbewerbsvorteil sein. Denn seit dem Erscheinen von ChatGPT vor ziemlich genau drei Jahren sind KI-Anwendungen nicht nur im Privaten, sondern auch bei der Arbeit immer stärker gefragt.
In einer aktuellen Forsa-Umfrage im Auftrag des Tüv-Verbands gab rund ein Drittel der Befragten an, generative KI bei der Arbeit zu nutzen. Knapp zwei Drittel erwarten, dass die Programme mittelfristig eine größere Bedeutung in ihrem Job einnehmen werden. Während mehr Menschen insgesamt Helfer wie ChatGPT oder Gemini für die Informationssuche nutzen, sinkt der Anteil derer, die damit Texte erstellen und verbessern, auf 43 Prozent. Vor einem Jahr lag dieser Wert noch bei 50 Prozent.
Dass es in der Kommunikation zwischen Mensch und Maschine hakt, ist für Psychotherapeut Lahmann nicht der einzige Grund für Frust bei Menschen, die viel mit KI-Tools arbeiten.
Für manche kratze die Kollaboration an der eigenen Ehre. „Wer Texte oder Konzepte gemeinsam mit einer KI erstellt, zweifelt hinterher manchmal an seiner eigenen Leistungsfähigkeit“, berichtet Lahmann auch aus seiner Praxis als Coach.
Dieses Gefühl tauche bei Beschäftigten wie Führungskräften gleichermaßen auf. „Die Frage dahinter“, sagt Lahmann, „habe ich das eigentlich noch selbst gemacht?“ Auch er selbst habe diese Erfahrung bereits gemacht. „Für ein Interview mit einer Zeitung habe ich meine Aussagen mit generativer KI zusammen vorbereitet.“ Der Journalist sei begeistert gewesen, weil er praktisch nichts habe ändern müssen.
Stellen Sie sich vor, die KI kann registrieren, ob Sie gut gelaunt sind, wütend oder gestresst.
Lahmann war weniger zufrieden. „Das ist wie ein KI-Impostor-Syndrom: Es kommt gut an, aber ich habe den Eindruck, ich hätte abgeschrieben.“
Weniger gewichtig, aber dennoch ein nennenswerter Faktor für schlechte Laune: die Sogwirkung. „Generative KI schlägt immer die nächste Aufgabe vor, sobald sie einen Prompt abgearbeitet hat“, sagt Lahmann. „Das ist wie das Scrollen auf Social-Media-Plattformen – man kann einfach nicht aufhören.“
Tragen wir die Lösung bald als Brille?
Dennoch hielte es der Arbeitspsychologe für falsch, Modelle wie Gemini oder ChatGPT wegen solcher Phänomene nicht mehr zu nutzen. „Menschen können sich sehr gut an neue Prozesse anpassen.“ Das werde bei der KI-Nutzung nicht anders sein als bei früheren Erfindungen. „Als vor knapp 200 Jahren die erste Eisenbahnstrecke zwischen Fürth und Nürnberg in Betrieb ging, warnten Ärzte vor den Folgen der hohen Geschwindigkeit.“ Heute wisse man mehr.
Thorsten Zander arbeitet mit seiner Forschung daran, „dass KI uns besser versteht“. Mit seinem Team hat er eine sogenannte passive Hirn-Computer-Schnittstelle entwickelt. „Stellen Sie sich vor, die KI kann registrieren, ob Sie gut gelaunt sind, wütend oder gestresst.“ Das verändere die Kommunikation mit der KI vollkommen.
Technisch geht Zander mit seinem eigens dafür gegründeten Start-up einen anderen Weg als die großen Player. Denn längst experimentieren Tech-Schwergewichte wie Elon Musk und seine Firma Neuralink mit Chips, die Menschen ins Gehirn eingesetzt werden.
Zander hingegen will Elektroden mit einer Art Pflaster auf der Kopfhaut platzieren. „Das reicht vollkommen aus, um über die Hirnströme Stimmungen oder Reaktionen zu messen, die der KI helfen, sich an uns anzupassen.“ Langfristig könnte diese Technologie in Headsets oder Brillen eingebaut werden.
Bis es so weit ist, werden sich Menschen wie Klara Schneider noch ein paar Jahre gedulden müssen. Sie selbst habe ihr Verhältnis zur KI aber bereits verändert. „Ich betrachte ChatGPT inzwischen eher als mein Trainee“, sagt die Kommunikationsfachfrau. Die KI bekomme inzwischen präzise Teilaufgaben in Häppchen, an denen sie lernen kann. „Zu jedem meiner Kunden gibt es inzwischen einen eigenen Chat.“ Über die Zeit habe sie bereits gelernt, wie die unterschiedlichen Auftraggeber ticken und welche Besonderheiten jeweils zu beachten seien.
Ein guter Ansatz, meint Thorsten Zander.
- showPaywall:
- false
- isSubscriber:
- false
- isPaid:
- false