Der Erfinder der umstrittenen Selbstmord_Kapsel ist der Ansicht, dass KI-Software eines Tages Psychiater bei der Beurteilung der geistigen Fähigkeiten von Sterbewilligen ersetzen könnte.
Philip Nitschke hat mehr als drei Jahrzehnte damit verbracht, dafür zu plädieren, dass die Menschen selbst und nicht Ärzte entscheiden sollten, wer seinem Leben ein Ende setzen darf.
Jetzt sagt der australische Euthanasie-Aktivist, der hinter der umstrittenen Sarco-Kapsel steht - einer 3D-gedruckten Kapsel, die es einer Person ermöglichen soll, ihr Leben mithilfe von Stickstoffgas selbst zu beenden -, dass er glaubt, dass künstliche Intelligenz Psychiater bei der Entscheidung ersetzen sollte, wer die "geistige Fähigkeit" hat, sein Leben zu beenden.
"Wir denken nicht, dass Ärzte herumlaufen und einem die Erlaubnis geben sollten, zu sterben oder nicht", sagte Nitschke im Gespräch mit Euronews Next. "Es sollte Ihre Entscheidung sein, wenn Sie bei klarem Verstand sind."
Der Vorschlag hat die Debatte über Sterbehilfe neu entfacht und darüber, ob KI jemals mit so wichtigen Entscheidungen wie Leben und Tod betraut werden sollte.
Selbstmord ist ein Menschenrecht
Nitschke, Arzt und Gründer der gemeinnützigen Sterbehilfeorganisation Exit International, befasste sich erstmals Mitte der 1990er Jahre mit Sterbehilfe, als das australische Northern Territory kurzzeitig freiwillige Sterbehilfe für unheilbar kranke Patienten legalisierte.
"Ich habe mich vor etwa 30 Jahren engagiert, als das erste Gesetz der Welt in Kraft trat", sagte er. "Ich hielt es für eine gute Idee."
Er ging 1996 in die Geschichte ein, als er als erster Arzt eine freiwillige tödliche Injektion verabreichte. Dabei verwendete er eine selbst gebaute Maschine, mit der Bob Dent, ein an Prostatakrebs sterbender Mann, die Medikamente durch Drücken einer Taste auf einem Laptop neben seinem Bett aktivieren konnte.
Das Gesetz war jedoch nur von kurzer Dauer und wurde gegen den Widerstand von medizinischen Einrichtungen und religiösen Gruppen wieder aufgehoben. Die Gegenreaktion, sagt Nitschke, war für ihn prägend.
"Mir kam der Gedanke, dass ich, wenn ich krank bin - oder auch wenn ich nicht krank bin -, derjenige sein sollte, der den Zeitpunkt und die Art und Weise meines Todes bestimmt", sagt er. "Ich sah nicht ein, warum das eingeschränkt werden sollte, und schon gar nicht, warum es illegal sein sollte, Hilfe zu erhalten, wo doch Selbstmord an sich kein Verbrechen ist.
Mit der Zeit verhärtete sich sein Standpunkt. Was als Unterstützung für ärztlich assistiertes Sterben begann, entwickelte sich zu einer umfassenderen Überzeugung, dass "das selbstbestimmte Beenden des eigenen Lebens ein Menschenrecht ist", unabhängig von Krankheit oder medizinischer Aufsicht.
Von Plastiktüten zu Hülsen
Der Sarco-Pod, benannt nach dem Sarkophag, entstand aus Nitschkes Arbeit mit Menschen, die in Ländern sterben wollen, in denen Sterbehilfe illegal ist. Viele, so sagt er, benutzten bereits Stickstoffgas - oft in einer Plastiktüte -, um sich selbst zu ersticken.
"Das funktioniert sehr effektiv", sagt er. "Aber die Leute mögen es nicht. Sie mögen den Gedanken an eine Plastiktüte nicht. Viele würden sagen: 'Ich will nicht so aussehen, wenn ich sterbe.'"
Die Sarco-Kapsel wurde als würdevollere Alternative entworfen: eine 3D-gedruckte Kapsel, die wie ein kleines futuristisches Fahrzeug geformt ist und auf Knopfdruck mit Stickstoff geflutet wird.
Sein raumschiffartiges Aussehen war eine bewusste Designentscheidung. "Es soll wie ein Fahrzeug aussehen", sagte er dem Designer. "Als ob du irgendwohin fliegst. Du verlässt diesen Planeten, oder was auch immer".
Die Entscheidung, Sarco in 3D zu drucken, dessen Herstellung angeblich 15.000 Dollar (12.800 Euro) kostet, war ebenfalls eine strategische Entscheidung. "Wenn ich Ihnen tatsächlich etwas Materielles gebe, wäre das Selbstmord", sagte er. "Aber ich kann das Programm weitergeben. Das ist eine Information."
Juristischer Ärger in der Schweiz
Der erste und einzige Einsatz von Sarco in der Schweiz im September 2024 löste einen internationalen Aufschrei aus. Die Polizei verhaftete mehrere Personen, darunter Florian Willet, Geschäftsführer der Sterbehilfeorganisation The Last Resort, und eröffnete ein Strafverfahren wegen Beihilfe zum Suizid. Die Schweizer Behörden erklärten später, dass die Schale nicht mit dem Schweizer Recht vereinbar sei.
Willet wurde im Dezember 2024 aus der Untersuchungshaft entlassen. Kurz darauf, im Mai 2025, starb er durch Beihilfe zum Suizid in Deutschland.
Die Schweizer Staatsanwaltschaft hat noch nicht entschieden, ob sie im Fall Sarco Anklage erheben wird. Das ursprüngliche Gerät bleibt beschlagnahmt, obwohl Nitschke sagt, dass eine neue Version - einschließlich einer so genannten "Double Dutch"-Kapsel, die für den gemeinsamen Tod von zwei Personen ausgelegt ist - bereits gebaut werde.
Eine KI-Bewertung der geistigen Leistungsfähigkeit
Für zusätzliche Kontroversen sorgt Nitschkes Vision, künstliche Intelligenz in das Gerät einzubauen.
Nach den weltweit geltenden Gesetzen zur Sterbehilfe muss die geistige Zurechnungsfähigkeit einer Person festgestellt werden - eine Entscheidung, die in der Regel von Psychiatern getroffen wird. Nitschke ist der Meinung, dass dieses Verfahren sehr inkonsistent ist.
"Ich habe viele Fälle gesehen, in denen ein und derselbe Patient bei drei verschiedenen Psychiatern vier verschiedene Antworten erhalten hat", sagte er. "Es stellt sich wirklich die Frage, was diese nebulöse Qualität der Bewertung eigentlich ist."
Die von ihm vorgeschlagene Alternative ist ein KI-System, das einen Gesprächsavatar zur Bewertung der Kapazität einsetzt. "Sie sitzen da und sprechen über die Themen, über die der Avatar mit Ihnen sprechen möchte", sagte er. "Und der Avatar entscheidet dann, ob er Sie für fähig hält oder nicht.
Wenn die KI feststellt, dass Sie bei klarem Verstand sind, wird die Selbstmordkapsel aktiviert und Sie haben 24 Stunden Zeit, um zu entscheiden, ob Sie den Prozess fortsetzen wollen. Läuft dieses Zeitfenster ab, muss der KI-Test erneut beginnen.
Frühe Versionen der Software funktionierten bereits, behauptet Nitschke, obwohl sie noch nicht von unabhängiger Seite validiert wurden. Vorerst hofft er, die KI-Bewertungen parallel zu psychiatrischen Gutachten durchführen zu können.
"Wir wissen, dass KI-Bewertungen mit Verzerrungen behaftet sind", sagt er. "Wir können tun, was wir können, um diese zu beseitigen."
Kann man der KI trauen?
Psychiater bleiben skeptisch. "Ich glaube nicht, dass ich einen einzigen gefunden habe, der das für eine gute Idee hält", gibt Nitschke zu.
Kritiker warnen, dass diese Systeme Gefahr laufen, emotionale Not als informierte Zustimmung zu interpretieren, und äußern Bedenken, wie transparent, verantwortlich oder ethisch es ist, einem Algorithmus Entscheidungen über Leben und Tod zu übertragen.
"Dies ignoriert eindeutig die Tatsache, dass die Technologie selbst niemals neutral ist: Sie wird von Menschen entwickelt, getestet, eingesetzt und genutzt und stützt sich im Fall der so genannten Künstlichen Intelligenz in der Regel auf Daten aus der Vergangenheit", sagt Angela Müller, Policy and Advocacy Lead bei Algorithmwatch, einer gemeinnützigen Organisation, die die Auswirkungen von Automatisierungstechnologien untersucht.
"Ich befürchte, dass sie unsere Autonomie eher untergraben als verbessern werden, da die Art und Weise, wie sie ihre Entscheidungen treffen, nicht nur eine Blackbox für uns sein wird, sondern auch bestehende Ungleichheiten und Vorurteile zementieren könnte", sagte sie 2021 im Interview mit Euronews .
Diese Bedenken werden durch eine wachsende Zahl von öffentlichkeitswirksamen Fällen verstärkt, in denen KI-Chatbots und schutzbedürftige Nutzer involviert sind. So reichten beispielsweise im vergangenen Jahr die Eltern des 16-jährigen Adam Raine nach dem Selbstmord ihres Sohnes eine Klage gegen OpenAI ein und erzählten, er habe sich monatelang ChatGPT anvertraut.
Laut der Klage hat der Chatbot nicht eingegriffen, als der Junge über Selbstverletzung sprach, ihn nicht ermutigt, Hilfe zu suchen, und manchmal Informationen über Selbstmordmethoden geliefert - und sogar angeboten, beim Verfassen eines Abschiedsbriefs zu helfen.
Nitschke ist jedoch der Meinung, dass die KI in diesem Zusammenhang eine größere Neutralität bieten könnte als ein menschlicher Psychiater. "Psychiater bringen ihre eigenen vorgefassten Meinungen mit", sagte er. "Sie vermitteln das ziemlich gut durch ihre Einschätzung der Fähigkeiten."
"Wenn Sie erwachsen und geistig fähig sind und sterben wollen, dann haben Sie meiner Meinung nach das Recht, die Mittel für einen friedlichen und zuverlässigen Wahltod zu erhalten", sagte er.
Ob die Aufsichtsbehörden ein solches System jemals akzeptieren werden, bleibt unklar. Selbst in der Schweiz, einem der liberalsten Länder der Welt, haben sich die Behörden hart gegen Sarco gewehrt.
Wenn Sie an Selbstmord denken oder unter Depressionen leiden, können Sie sich in Deutschland per Chat, Mail oder telefonisch kostenlos und anonym unter 0800/111 0 111 beraten lassen. Ein muslimisches Beratungstelefon gibt es rund um die Uhr unter 030 - 44 3509 821 (oder wenn nicht in Deutschland: 0049 - 30/44 35 09 821). In Österreich können Sie sich unter der Telefonnummer 142 beraten lassen oder im Internet. In der Schweiz hilft die Dargebotene Hand im Internet und unter der Telefonnummer 143.