Was hat sich in fast zehn Jahren OpenAI-Mission verändert? Ein Blick auf das neue Papier mit den Grundsätzen des Unternehmens.
OpenAI treibt einer neuen Selbstbeschreibung zufolge nicht mehr vor allem die Sorge um eine allgemeine künstliche Intelligenz (AGI) um. Das Unternehmen setzt inzwischen vielmehr darauf, seine Technologie breit in die Welt zu bringen.
Am Sonntag veröffentlichte OpenAI eine aktualisierte Fassung des Papiers „Our Principles“, das festlegt, nach welchen Grundsätzen der Konzern seine Technologie künftig betreiben will.
Zwischen diesen neuen Leitlinien und den Prioritäten von vor fast zehn Jahren liegen einige wichtige Unterschiede. Damals stand OpenAI noch am Anfang und arbeitete als gemeinnützige KI-Forschungsorganisation.
Allgemeine KI rückt in den Hintergrund
Im Jahr 2018 (Quelle auf Englisch) konzentrierte sich OpenAI strikt auf künstliche allgemeine Superintelligenz (AGI), also die Vorstellung, dass die eigene Technologie menschliche Intelligenz übertrifft. Inzwischen ist AGI nur noch ein Teil einer breiteren KI-Strategie.
Beide Versionen der Leitlinien beschreiben denselben Auftrag: Die Technologie soll „der gesamten Menschheit zugutekommen“. Die Fassung von 2018 betont jedoch ausdrücklich, dass OpenAI diese Systeme sicher und zum Nutzen aller entwickeln will.
„Unsere vorrangige treuhänderische Pflicht gilt der Menschheit“, heißt es dort. „Wir gehen davon aus, dass wir erhebliche Mittel mobilisieren müssen, um unseren Auftrag zu erfüllen, werden aber stets sorgfältig darauf achten, Interessenkonflikte zwischen unseren Mitarbeitenden und anderen Anspruchsgruppen zu minimieren, die dem breiten Nutzen schaden könnten.“
Die Version von 2026 (Quelle auf Englisch) hält fest, dass OpenAI weiter sichere Systeme aufbauen müsse. Zugleich müsse die Gesellschaft „mit jeder neuen Stufe von KI-Fähigkeiten umgehen, sie verstehen, sie integrieren und gemeinsam den besten Weg nach vorn finden“.
Für Vorstandschef und Mitgründer Sam Altman bedeutet der Weg nach vorn im Jahr 2026, KI auf allen Ebenen zu demokratisieren: Alle sollen Zugang dazu bekommen. OpenAI will verhindern, dass die Technologie „Macht in den Händen weniger konzentriert“.
Das Papier von 2026 sieht außerdem vor, dass OpenAI mit Regierungen, internationalen Organisationen und anderen AGI-Initiativen zusammenarbeitet, um „schwere Probleme der Ausrichtung, Sicherheit oder gesellschaftlichen Auswirkungen ausreichend zu lösen“, bevor die Entwicklung weiter vorangetrieben wird.
Beispiele dafür wären, ChatGPT einzusetzen, um Modelle zu bekämpfen, die neue Krankheitserreger erzeugen könnten, oder besonders widerstandsfähige KI-Systeme in kritische Infrastruktur einzubauen.
Altman hatte die geringere Fokussierung auf AGI bereits Anfang des Monats in seinem persönlichen Blog angedeutet.
AGI habe einen „Ring-der-Macht“-Charakter, der „Menschen zu verrückten Dingen verleitet“, schrieb er. Dem könne man nur begegnen, indem man „die Technologie breit mit Menschen teilt, sodass niemand allein den Ring besitzt“.
OpenAI räumt Sicherheitsprojekten keinen Vorrang mehr ein
Im Jahr 2018 warnte OpenAI, die Entwicklung von AGI drohe zu einem „Wettlauf ohne ausreichende Sicherheitsvorkehrungen“ zu werden.
Damals versprach das Unternehmen, die eigene Arbeit notfalls zu stoppen, um ein anderes Projekt zu unterstützen, das ähnliche Werte vertrete und sicherheitsbewusst arbeite, wenn dieses der Realisierung von AGI näher komme.
„Die Details werden wir ausarbeiten … aber ein typischer Auslöser könnte eine ‚bessere als fünfzigprozentige Erfolgswahrscheinlichkeit in den kommenden zwei Jahren‘ sein“, hieß es im Dokument von 2018.
Im Jahr 2026 fehlt ein solcher Verzicht. Stattdessen stellt das Papier fest, OpenAI sei heute „eine weitaus größere Kraft in der Welt als noch vor ein paar Jahren“ und sagt zu, transparent zu machen, wann und wie sich die eigenen Leitlinien verändern könnten.
Das Unternehmen steht inzwischen in einem harten Wettbewerb mit mehreren Rivalen, darunter Anthropic.
Im Februar verweigerte Anthropic der Regierung von US-Präsident Donald Trump uneingeschränkten Zugriff auf seine KI für militärische Zwecke. Daraufhin stufte Washington das Unternehmen als Risiko für die Lieferkette ein und untersagte Bundesbehörden im März, den KI-Assistenten Claude weiter zu nutzen.
Am 28. Februar sprang OpenAI ein, um diese Lücke zu schließen, und unterzeichnete einen Vertrag mit dem US-Kriegsministerium, was einige Nutzer dazu brachte, ChatGPT zu boykottieren und zu Claude zu wechseln.
Anthropic wurde in diesem Monat außerdem mit 800 Milliarden Dollar (696 Milliarden Euro) bewertet – ein Wert in der Größenordnung von OpenAI.
Weit gefasste Appelle an die Gesellschaft
Im Dokument von 2026 fordert OpenAI mehrere gesellschaftliche Veränderungen, damit sich die Welt besser an KI anpassen kann.
„Wir stellen uns eine Welt vor, in der es weit verbreiteten Wohlstand in einem heute kaum vorstellbaren Ausmaß gibt“, heißt es in dem Papier. „Vieles, was wir uns bisher nur in Science-Fiction-Geschichten zugestanden haben, könnte Realität werden, und die meisten Menschen könnten ein sinnvolleres Leben führen als die meisten es heute können.“
Diese Zukunft ist nicht garantiert. KI kann entweder „von einer kleinen Handvoll Unternehmen gehalten werden, die Superintelligenz nutzen und kontrollieren“, oder „in dezentraler Form von vielen Menschen“, heißt es weiter.
Das Prinzipienpapier greift auch einige der jüngsten Politikvorschläge OpenAIs auf. Regierungen sollen demnach „neue Wirtschaftsmodelle“ prüfen und Technologien entwickeln, die die Kosten der KI-Infrastruktur senken.
„Vieles von dem, was wir tun und was seltsam wirkt – etwa riesige Mengen Rechenleistung zu kaufen, obwohl unser Umsatz noch vergleichsweise gering ist –, beruht auf unserem grundlegenden Glauben an eine Zukunft des allgemeinen Wohlstands“, heißt es in dem Dokument.