Falsche Anschuldigungen durch ChatGPT: Reicht australischer Bürgermeister Klage ein?

Brian Hood (unteres Bild), Bürgermeister von Hepburn Shire (Australien)
Brian Hood (unteres Bild), Bürgermeister von Hepburn Shire (Australien) Copyright Euronews
Von euronews
Diesen Artikel teilenKommentare
Diesen Artikel teilenClose Button
Den Link zum Einbetten des Videos kopierenCopy to clipboardCopied

Das Computerprogramm ChatGPT verbreitete Falschaussagen über Brian Hood, Bürgermeister der australischen Stadt Hepburn Shire. Hood erwägt eine Klage.

WERBUNG

Ein australischer Politiker könnte der erste Mensch sein, der die Macher von ChatGPT verklagt, weil das Programm falsche Behauptungen über den Bürgermeister aufgestellt hat.

ChatGPT ist ein Chatbot, der mit künstlicher Intelligenz arbeitet. Und er hat durch seine Fähigkeit, sofort Antworten auf jede Ihrer Anfragen zu liefern, die Aufmerksamkeit der Welt auf sich gezogen. Aber wenn man ChatGPT fragt, wer Bürgermeister Brian Hood ist, behauptet er fälschlicherweise, dass er wegen Zahlung von Bestechungsgeld verurteilt wurde und zu 30 Monaten Gefängnis verurteilt worden sei.

„Ich war wirklich schockiert, ich konnte es nicht glauben"

In Wirklichkeit wurde Hood nie wegen eines Verbrechens angeklagt. Er war vielmehr der Informant, der zur Aufdeckung eines Bestechungsfall beitrug, in den die australische National Reserve Bank Anfang der 2000er Jahre verwickelt war. Als Brian Hood von Kollegen auf diese falschen Anschuldigungen aufmerksam gemacht wurde, sagte er Euronews, dass es ihn erheblich beunruhige, besonders als gewählter Beamter.

„Ich war wirklich schockiert, ich konnte es nicht glauben", so Hood. „Ich musste es lesen und noch mal lesen, es mir ansehen und eine weitere Anfrage stellen, weil ich das einfach nicht erwartet hatte. Ruf, Integrität und Ansehen sind für alle wichtig. Aber wenn man solch ein Amt innehat, dann ist man sich erst bewusst, was die Leute denken könnten", sagte der Politiker.

Dieser Fall ist das jüngste Beispiel für eine wachsende Auflistung von KI-Chatbots, die falsche Behauptungen über Menschen veröffentlichen. Ein Beispiel aus jüngster Zeit: Ein Chatbot erfand einen falschen Fall sexueller Belästigung, in den ein Juraprofessor in den USA verwickelt gewesen sein soll. Als Quelle wurde sogar ein Artikel der Washington Post angegeben, den es nie gab. In seinem öffentlichen Blog über das Programm verdeutlichte OpenAI, die Firma hinter ChatGPT, dass es "manchmal plausibel klingende, aber falsche oder unsinnige Antworten gibt und dass es schwierig ist, das Problem zu beheben".

Hood fordert dringend mehr Überprüfungen und Regeln

Aber für Brian Hood hat diese Erfahrung sein Vertrauen in diese Technologie der künstlichen Intelligenz untergraben. „Es wird alles so dargestellt, dass man glaubt, es sei echt, auf Tatsachen aufbauend und vertrauenswürdig. Es braucht mehr Überprüfungen und Regeln. Das ist sehr dringend, denn es kann den Ruf von Menschen oder anderen Unternehmen oder Organisationen schädigen. Wenn es mir passieren kann, kann es allen passieren", so Hood.

Brian Hoods Anwälte haben ein Schreiben an das Unternehmen, das hinter ChatGPT steckt, OpenAI, geschickt. Das hat eine Frist bis 18. April, um zu antworten, die Fehler zu beheben oder sich einer möglichen Verleumdungsklage zu stellen. The Cube hat sich an OpenAI gewandt, aber es hat nicht auf unsere Anfrage nach einem Kommentar geantwortet.

Diesen Artikel teilenKommentare

Zum selben Thema

Schock in der KI-Branche: Rauswurf von ChatGPT-Mitbegründer Sam Altman bei OpenAI

Googles ChatGPT-Konkurrent: Wer oder was ist Bard?

Frauenfeindlicher Influencer Andrew Tate (37) erneut festgenommen