Eine neue Studie zeigt: Künstliche Intelligenz kann Persönlichkeitsmerkmale wie Verträglichkeit und emotionale Stabilität mit bis zu sechzig Prozent Genauigkeit vorhersagen.
Künstliche Intelligenz kann aus dem Chatverlauf auf die Persönlichkeit von Nutzerinnen und Nutzern schließen. Das zeigt eine neue Studie.
Für eine Vorabstudie (Quelle auf Englisch) baten Forschende der ETH Zürich 668 ChatGPT-Nutzerinnen und -Nutzer aus den USA und dem Vereinigten Königreich, ihre Chatverläufe zu teilen. Auf dieser Grundlage trainierten sie ein KI-Modell, das Persönlichkeitsmerkmale aus den Gesprächen ableiten soll.
Insgesamt sammelte und analysierte das Team mehr als 62.000 Chats und ordnete sie nach den Themen, auf die sie sich konzentrierten.
Das trainierte KI-Modell schätzte anschließend, wie wahrscheinlich es ist, dass eine Person bestimmte Ausprägungen der fünf Persönlichkeitsmerkmale zeigt, die in der Psychologie als „Big Five“ gelten: Verträglichkeit, Gewissenhaftigkeit, emotionale Stabilität, Extraversion und Offenheit.
Alle Teilnehmenden absolvierten zudem einen standardisierten psychologischen Test, der ihre wichtigsten Persönlichkeitsmerkmale erfasst.
Das verfeinerte KI-Modell identifizierte die Persönlichkeitsmerkmale der Nutzenden mit einer Genauigkeit von bis zu 61 % , heißt es in dem Bericht. Besonders gut sagte die KI Verträglichkeit und emotionale Stabilität voraus, bei der Gewissenhaftigkeit tat sie sich jedoch schwer.
Am zuverlässigsten arbeitete die KI, wenn sie auf einen längeren Chatverlauf zugreifen konnte. Je intensiver jemand solche Systeme nutzt, desto leichter lässt sich laut Studie seine Persönlichkeit erkennen.
Für Einzelpersonen sehen die Forschenden zwar nur geringe Risiken. Im großen Maßstab halten sie den möglichen Missbrauch solcher Persönlichkeitsdaten jedoch für sehr gefährlich.
So könnten solche Daten etwa groß angelegte Manipulationskampagnen ermöglichen, die Desinformation und politische Propaganda verbreiten.
Das Team hofft, dass die Ergebnisse helfen, Schutzwerkzeuge zu entwickeln. Denkbar wäre etwa ein System, das automatisch identifizierende Details aus Chats entfernt und so das Risiko unbedachten Datenteilens senkt.