Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Was wird gespeichert? Das sind die datenschutzfreundlichsten KI-Modelle

Mistral AI war die datenschutzfreundlichste künstliche Intelligenz, gefolgt von ChatGPT und Grok.
Mistral AI war die datenschutzfreundlichste künstliche Intelligenz, gefolgt von ChatGPT und Grok. Copyright  Canva
Copyright Canva
Von Anna Desmarais
Zuerst veröffentlicht am
Diesen Artikel teilen Kommentare
Diesen Artikel teilen Close Button

Eine neue Studie hat das beste KI-Modell zum Schutz Ihrer Daten gefunden, und es kommt aus Europa.

WERBUNG

Le Chat von Mistral AI ist das datenschutzfreundlichste Modell unter den aktuellen generativen KI-Systemen. Das zeigt eine neue Analyse.

Der Dienst Incogni, spezialisiert auf das Entfernen persönlicher Daten, hat acht große Sprachmodelle (LLMs) hinsichtlich ihrer Datenschutzrisiken untersucht – darunter ChatGPT von OpenAI, Meta AI, Gemini von Google, Copilot von Microsoft, Grok von xAI, Claude von Anthropic, Pi AI von Inflection AI und das chinesische Modell DeepSeek.

Bewertet wurden elf Kriterien, etwa:

  • Welche Daten für das Training verwendet werden,

  • ob Nutzereingaben für das Training gespeichert und weiterverwendet werden,

  • und ob Daten an Dritte weitergegeben werden können.

Jede Plattform erhielt eine Punktzahl zwischen 0 (sehr datenschutzfreundlich) und 1 (sehr datenschutzbedenklich). Ziel der Analyse war es, Transparenz, Trainingsmethoden und den Umgang mit Nutzerdaten vergleichbar zu machen.

Was zeichnet Mistral AI aus?

Laut der Analyse sammelt das französische Unternehmen Mistral AI mit seinem Chatbot Le Chat nur "begrenzte" personenbezogene Daten – und schneidet bei datenschutzrelevanten Aspekten besonders gut ab. Le Chat gilt damit als das KI-Modell, das am wenigsten in die Privatsphäre der Nutzer eingreift.

Bemerkenswert: Le Chat ist neben Pi AI einer der wenigen Chatbots, die lediglich nutzergenerierte Eingaben an ihre Dienstanbieter weitergeben, und nicht darüber hinaus Daten erheben oder teilen.

ChatGPT von OpenAI landete in der Gesamtwertung auf dem zweiten Platz. Ausschlaggebend war hier vor allem die transparente Datenschutzrichtlinie, die Nutzer klar über den Umgang mit ihren Daten informiert. Allerdings äußerten die Analysten Bedenken bei der Trainingspraxis und der Interaktion der Nutzer mit der Plattform, die aus Datenschutzsicht nicht ganz unproblematisch sei.

xAI, das KI-Unternehmen des Milliardärs Elon Musk, landete mit seinem Chatbot Grok auf dem dritten Platz – vor allem wegen mangelnder Transparenz und der Menge an gesammelten Daten.

Das Claude-Modell von Anthropic schnitt ähnlich ab, allerdings äußerten die Studienautor:innen mehr Bedenken hinsichtlich der Interaktion des Modells mit Nutzerdaten.

Meta AI bildet das Schlusslicht im Ranking, denn es greift laut der Analyse am stärksten in die Privatsphäre der Nutzer ein, dicht gefolgt von Gemini (Google) und Copilot (Microsoft).

Ein zentrales Problem bei den Schlusslichtern: Viele dieser Anbieter erlauben es Nutzer:innen offenbar nicht, der Verwendung ihrer Eingaben zum weiteren Training der Modelle zu widersprechen.

Zu den Barrierefreiheitskürzeln springen
Diesen Artikel teilen Kommentare

Zum selben Thema

Kann KI unsere Träume sichtbar machen? Ein niederländisches Unternehmen versucht genau das zu tun

Mit einer Maschine reden: Kann ChatGPT eine Therapie-Alternative sein?

Fünf Dinge, die Sie nicht mit ChatGPT teilen sollten