zum Hauptinhalt
KI-generiertes Bild von einem Roboter, der am Gießen einer Pflanze scheitert.

© stock.adobe.com/Andre, generiert mi KI

Tagesspiegel Plus

Zufällig richtige Ergebnisse: Berliner Forscher decken Fehler im Fundament von KI auf

Ob die Ergebnisse von KI-Systemen stimmen, ist oft nicht vorhersehbar: Die Programme sehen Zusammenhänge, wo es keine gibt. Das deckte ein Berliner Forscherteam nun auf.

Stand:

Die beliebten Chatbots mit Künstlicher Intelligenz liegen häufig richtig, produzieren aber mitunter ausgemachten Blödsinn. So riet die Google-KI ihren Nutzern schon, Pizzasauce mit Klebstoff zuzubereiten, damit sie besser am Teig hafte. ChatGPT war lange Zeit nicht in der Lage, den Buchstaben „R“ im Wort „strawberry“ zu zählen. Sämtliche Bildgeneratoren scheitern daran, ein randvolles Weinglas darzustellen.

showPaywall:
true
isSubscriber:
false
isPaid:
true
console.debug({ userId: "", verifiedBot: "false", botCategory: "" })