zum Hauptinhalt
Ein Experiment legt offen, wie leicht KI-Modelle zur Datenfalle werden.

© Getty Images/pocketlight

Tagesspiegel Plus

Sicherheitslücke im Alltag: Der Chatbot, der zu gut zuhört

Sie klingen verständnisvoll, stellen scheinbar harmlose Fragen, doch sammeln dabei persönliche Informationen. Ein Experiment legt offen, wie leicht KI-Modelle zur Datenfalle werden.

Von Larissa Schwedes

Stand:

Ein freundlicher Chatbot, der zuhört und nachfragt – und nebenbei intime Details sammelt. Das wiesen Forscher des King’s College London sowie der spanischen Uni Politècnica de València mit einem Experiment nach. Die Studie ist online als Preprint-Version veröffentlicht worden, wurde also bisher nicht von Fachleuten begutachtet und in einer Fachzeitschrift veröffentlicht.

showPaywall:
true
isSubscriber:
false
isPaid:
true
console.debug({ userId: "", verifiedBot: "false", botCategory: "" })