Experten forderten eine Pause für KI-Experimente: Wo stehen wir jetzt?

Stellen Maschinen und KI eine existenzielle Gefahr für die Menschheit dar?
Stellen Maschinen und KI eine existenzielle Gefahr für die Menschheit dar? Copyright Canva
Copyright Canva
Von Luke Hurst
Diesen Artikel teilenKommentare
Diesen Artikel teilenClose Button
Dieser Artikel wurde im Original veröffentlicht auf Englisch

Führende Tech-Unternehmen hatten vor rund einem halben Jahr einen offenen Brief unterzeichnet. Ihre Forderung: eine Pause bei Experimenten mit Künstlicher Intelligenz. Wurden ihre Warnungen gehört?

WERBUNG

Kann Künstliche Intelligenz (KI) als ein potenziell existenzielles Risiko für die Menschheit angesehen werden? Das behauptet jedenfalls das Future of Life Institute (FLI), das vor sechs Monaten einen offenen Brief veröffentlichte, in dem es eine "sofortige Pause" für große KI-Experimente forderte.

Der Brief entstand, als das öffentliche Interesse an generativer KI immer größer wurde und Apps wie ChatGPT oder Midjourney zeigten, wie die Technologie der Nachahmung menschlicher Fähigkeiten in Schrift und Kunst immer näher kommt.

Für die Unterzeichner des Briefes - darunter etwa Elon Musk, CEO von X, Tesla und SpaceX, Apple-Mitbegründer Steve Wozniak und der Autor Yuval Noah Harari - war der scheinbar plötzliche Aufstieg der generativen KI der Grund dafür, eine Pause einzulegen. Unternehmen wie ChatGPT's OpenAI und Google wurden aufgefordert, die "tiefgreifenden Risiken für die Gesellschaft und die Menschheit" zu bedenken, die ihre Technologie mit sich bringen könnte.

Man kann mit Fug und Recht behaupten, dass die großen Akteure allerdings nicht daran denken, sich eine Pause zu gönnen. Stattdessen haben sich weitere Unternehmen mit ihren eigenen großen Sprachmodellen (Large Language Models, LLMs) in das Rennen um die generative KI eingeklinkt: Meta brachte Llama 2 heraus und Anthropic präsentierte seinen ChatGPT-Konkurrenten Claude 2.

Unabhängig davon, ob die Warnungen der Tech-Giganten beherzigt wurden oder nicht, markiert der Brief des FLI so etwas wie einen Meilenstein im Jahr 2023, das als das Jahr der KI in die Geschichte eingehen wird.

"Agierende statt generativer KI"

Mark Brakel, der politische Direktor des FLI, sagte, man habe nicht mit einer derartigen Reaktion auf den Brief gerechnet. Die Presse berichtete ausführlich über das Schreiben, und in den Regierungen wurde erneut die Frage aufgeworfen, wie man mit dem raschen Fortschritt der KI umgehen soll. Es gab eine Anhörung im US-Senat, in der das Schreiben zitiert wurde, und das Europäische Parlament gab eine formelle Antwort.

Brakel erklärte gegenüber Euronews Next, dass der bevorstehende globale Gipfel zur KI-Sicherheit im britischen Bletchley Park eine gute Gelegenheit für Regierungen sein werde, dort einzugreifen, wo Unternehmen sich weigern, die Bremse zu ziehen. Für Brakel könnte bald anstelle "generativer KI" die "agierende KI" stehen, mit einer KI, die Entscheidungen treffen und autonom handeln kann.

"Ich glaube, dass das vielleicht die Trendlinie ist - und wir auch erkennen, wie OpenAI fast das gesamte Internet der Texte durchforstet hat", so Brakel. "Wir beginnen, Videos, Podcasts und Spotify als alternative Daten-, Video- und Sprachquellen zu nutzen."

Nähern wir uns der Katastrophe?

Brakel weist darauf hin, dass das FLI, das 2014 gegründet wurde und sich mit drei großen Risikobereichen auf zivilisatorischer Ebene befasst hat, "ein bisschen wie die Brieforganisation" geworden ist: KI, Biotechnologie und Atomwaffen.

Auf ihrer Website findet sich ein besonders eindrucksvolles Video, eine aufwendig produzierte fiktive Darstellung einer globalen KI-Katastrophe im Jahr 2032. Inmitten der Spannungen zwischen Taiwan und China führt die Abhängigkeit des Militärs von der KI bei der Entscheidungsfindung zu einem Atomkrieg. Das Video endet damit, wie der Planet mit Atomwaffen übersät ist.

Brakel glaubt, dass wir einem solchen Szenario nähergekommen sind. "Die Integration von KI in die militärische Führung schreitet weiter voran, insbesondere bei den Großmächten. Ich sehe aber auch ein größeres Bedürfnis der Staaten nach Regulierung, vor allem wenn es um die Autonomie konventioneller Waffensysteme geht", so der FLI-Direktor.

Das nächste Jahr sieht nach Ansicht Brakels "vielversprechend für die Regulierung autonomer Systeme wie Drohnen, U-Boote und Panzer" aus. "Ich hoffe, dass die Großmächte dann auch Vereinbarungen treffen können, um Unfälle bei der Steuerung nuklearer Waffen zu vermeiden, die noch eine Stufe sensibler ist, als bei konventionellen Waffen".

Regulierung im Anmarsch

Die großen KI-Unternehmen haben ihre Experimente zwar nicht gestoppt, ihre führenden Köpfe haben die tiefgreifenden Risiken, die KI und Automatisierung für die Menschheit darstellen, jedoch offen zugegeben.

Der CEO von OpenAI, Sam Altman, forderte Anfang des Jahres die Politik in den USA auf, die KI staatlich zu regulieren, und erklärte, seine "schlimmsten Befürchtungen sind, dass wir, die Technologiebranche, der Welt erheblichen Schaden zufügen". Dies könne auf "viele verschiedene Arten" geschehen, fügte er hinzu. Er forderte eine US-amerikanische oder globale Agentur, die die leistungsfähigsten KI-Systeme lizenzieren würde.

Europa könnte sich jedoch als Vorreiter bei der Regulierung von KI erweisen, da das bahnbrechende KI-Gesetz der Europäischen Union in Arbeit ist. Das Europäische Parlament hat sich mit überwältigender Mehrheit (499 Ja-Stimmen, 28 Nein-Stimmen, 93 Enthaltungen) dafür ausgesprochen.

Der Rechtsakt sieht vor, dass KI-Systeme je nach Risikostufe in verschiedene Kategorien eingeteilt werden, wobei die risikoreichsten Arten verboten sind und Systeme mit begrenztem Risiko ein bestimmtes Maß an Transparenz und Aufsicht erfordern.

"Wir sind im Allgemeinen recht zufrieden mit dem Gesetz", sagt Brakel. "Eine Sache, für die wir uns von Anfang an eingesetzt haben, als das Gesetz zum ersten Mal von der Kommission vorgeschlagen wurde, ist, dass es GPT-basierte Systeme regulieren muss. Damals sprachen wir eher von GPT3 als von 4 [OpenAIs Transformator-Modelle], aber das Prinzip bleibt dasselbe, und wir sehen uns einer großen Lobby gegenüber, die sich dagegen ausspricht." Das Narrativ in den USA sei das gleiche wie in der EU, nämlich dass nur die Nutzer von KI-Systemen, die Anwender, wissen sollen, "in welchem Kontext sie eingesetzt werden".

Brakel nennt das Beispiel eines Krankenhauses, das einen Chatbot für den Patientenkontakt einsetzt. "Sie werden den Chatbot einfach von OpenAI kaufen, sie werden ihn nicht selbst entwickeln. Und wenn dann ein Fehler passiert, für den man haftbar gemacht wird, weil man medizinische Ratschläge gegeben hat, die man nicht hätte geben sollen, dann muss man natürlich verstehen, was für ein Produkt man gekauft hat. Ein Teil dieser Haftung sollte "wirklich geteilt" werden.

WERBUNG

Während Europa auf die endgültige Formulierung des KI-Gesetzes der EU wartet, könnte der globale KI-Sicherheitsgipfel am 1. November einen Einblick geben, wie führende Politikerinnen und Politiker auf der ganzen Welt die KI-Regulierung in naher Zukunft angehen werden.

Diesen Artikel teilenKommentare

Zum selben Thema

Kann Künstliche Intelligenz unsere Lebenserwartung einschätzen?

80 % der Arbeitsplätze von Frauen sind durch künstliche Intelligenz bedroht, so eine neue Studie

TheCube: Könnte künstliche Intelligenz die Menschheit zerstören?