Fotos, die Nutzer in KI-Chatbots hochladen, könnten unbefristet gespeichert werden und Kriminellen Vorlagen für Identitätsdiebstahl und Fake-Profile liefern.
Ein neuer Trend mit Karikaturen aus künstlicher Intelligenz (KI) zeigt in bunten Bildern, was ein Chatbot über eine Person weiß. IT-Sicherheitsexperten warnen jedoch vor erheblichen Sicherheitsrisiken.
Nutzer laden dafür ein eigenes Foto hoch, oft zusammen mit einem Firmenlogo oder Angaben zu ihrer Position, und bitten ChatGPT von OpenAI, daraus eine Karikatur von ihnen und ihrem Job zu erstellen, basierend auf allem, was der Chatbot bereits über sie weiß.
Fachleute für Cybersicherheit sagten Euronews Next, solche Challenges in sozialen Netzwerken lieferten Betrügern einen wahren Schatz an Informationen. Ein einziges Bild in Kombination mit persönlichen Angaben verrät häufig mehr, als den Nutzern bewusst ist.
„Sie erledigen die Arbeit der Betrüger gleich mit, indem Sie ihnen ein visuelles Abbild Ihrer Person liefern“, sagte Bob Long, Vizepräsident beim Altersverifizierungsunternehmen Daon.
Schon die Formulierung solcher Aktionen sollte aus seiner Sicht Alarmglocken schrillen lassen, weil sie „klingt, als sei sie absichtlich von einem Betrüger gestartet worden, der sich die Arbeit leicht machen will“.
Was passiert mit den Bildern nach dem Hochladen?
Wenn jemand ein Bild in einen KI-Chatbot hochlädt, analysiert das System laut dem Cybersicherheitsberater Jake Moore unter anderem Emotionen, Umgebung und Hinweise auf den Aufenthaltsort der Person. Diese Informationen können anschließend für eine unbekannte Zeit gespeichert bleiben.
Long erklärte, dass die gesammelten Bilder als Teil von Datensätzen genutzt und dauerhaft aufbewahrt werden können, um KI-Bildgeneratoren zu trainieren.
Kommt es bei einem Unternehmen wie OpenAI zu einer Datenpanne, könnten sensible Daten wie hochgeladene Fotos und persönliche Informationen aus dem Chatbot in die Hände Krimineller geraten, die sie missbrauchen.
Geraten solche Daten an die falschen Personen, kann schon ein einziges hochauflösendes Bild laut Charlotte Wilson, Leiterin des Unternehmensbereichs beim israelischen Cybersicherheitsunternehmen Check Point, ausreichen, um gefälschte Social-Media-Profile oder realistisch wirkende KI-Deepfakes für Betrugsmaschen zu produzieren.
„Selfies helfen Kriminellen dabei, von allgemeinen Betrugsversuchen zu personalisierten Täuschungen mit hoher Überzeugungskraft überzugehen“, sagte sie.
In den Datenschutzeinstellungen von OpenAI steht, dass hochgeladene Bilder zur Verbesserung des Modells verwendet werden dürfen, was auch ein Training einschließen kann. Auf Nachfrage zu den Datenschutzeinstellungen erklärte ChatGPT allerdings, dies bedeute nicht, dass jedes Foto in eine öffentliche Datenbank wandert.
Der Chatbot verwende stattdessen Muster aus den Inhalten der Nutzer, um zu verfeinern, wie das System Bilder erstellt, hieß es.
Was tun, wenn man bei KI-Trends mitmachen möchte?
Wer trotz der Risiken bei dem Trend mitmachen will, sollte nach Ansicht von Experten sehr genau auswählen, was er preisgibt.
Wilson rät, keine Bilder hochzuladen, die identifizierende Details zeigen.
„Schneiden Sie das Foto eng zu, wählen Sie einen neutralen Hintergrund und zeigen Sie keine Abzeichen, Uniformen, Dienstausweise am Band, Hinweise auf den Aufenthaltsort oder irgendetwas, das Sie mit einem Arbeitgeber oder einer regelmäßigen Routine verknüpft“, sagte sie.
Sie warnte außerdem davor, im Prompt zu viele persönliche Angaben zu machen, etwa zu Berufsbezeichnung, Wohnort oder Arbeitgeber.
Moore empfiehlt zudem, vor der Teilnahme die eigenen Datenschutzeinstellungen zu prüfen, insbesondere Optionen, mit denen sich Daten aus dem KI-Training herausnehmen lassen.
OpenAI bietet ein Datenschutzportal an, über das Nutzer der Nutzung ihrer Inhalte für das Training widersprechen können, indem sie die Option „do not train on my content“ auswählen.
In den Einstellungen von ChatGPT lässt sich außerdem verhindern, dass Textunterhaltungen für das Training genutzt werden, indem die Funktion „improve the model for everyone“ deaktiviert wird.
Nach EU-Recht können Nutzer die Löschung ihrer bei dem Unternehmen gespeicherten personenbezogenen Daten verlangen. OpenAI weist jedoch darauf hin, dass bestimmte Informationen trotz eines Löschantrags gespeichert bleiben können, um Betrug, Missbrauch und Sicherheitsprobleme zu adressieren.