Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

OpenAI überarbeitet seine Grundsätze: Das ändert sich

ARCHIV: Das OpenAI-Logo auf einem Smartphone vor einem von ChatGPTs Dall-E generierten Bild, aufgenommen am achten Dezember 2023 in Boston.
ARCHIV - Auf einem Handy ist das OpenAI-Logo vor einem von ChatGPTs Dall-E erzeugten Bild zu sehen, aufgenommen am achten Dezember 2023 in Boston Copyright  AP Photo/Michael Dwyer, File
Copyright AP Photo/Michael Dwyer, File
Von Anna Desmarais
Zuerst veröffentlicht am Zuletzt aktualisiert
Teilen Kommentare
Teilen Close Button

Fast zehn Jahre OpenAI: Was sich am Selbstverständnis des Unternehmens verändert – und was im neuen Grundsatzpapier steht.

OpenAI macht sich heute deutlich weniger Gedanken über künstliche allgemeine Intelligenz (AGI) als noch vor beinahe zehn Jahren. Das Unternehmen setzt nun vor allem darauf, seine Technik breit in die Welt zu bringen – so steht es in einem neuen Leitbild.

WERBUNG
WERBUNG

Am Sonntag veröffentlichte OpenAI eine überarbeitete Version des Papiers „Our Principles“. Darin legt der Konzern fest, wie er seine Technologien künftig einsetzen will.

Zwischen den neuen Grundsätzen und den Prioritäten von vor knapp zehn Jahren gibt es zentrale Unterschiede. Damals war OpenAI noch eine junge, gemeinnützige Forschungsorganisation für Künstliche Intelligenz.

OpenAI rückt von AGI-Fokus ab

Im Jahr 2018 konzentrierte sich OpenAI konsequent auf künstliche allgemeine Superintelligenz (AGI) – also auf die Idee, dass die eigene Technologie menschliche Intelligenz übertreffen könnte. Heute ist das nur noch ein Baustein in einer viel breiter angelegten KI-Strategie.

Beide Fassungen der Unternehmensgrundsätze formulieren denselben Auftrag: Die Technologie soll „der ganzen Menschheit zugutekommen“. In der Version von 2018 steht allerdings ausdrücklich, dass OpenAI sie sicher und zum Nutzen aller entwickeln will.

„Unsere treuhänderische Hauptpflicht gilt der Menschheit“, heißt es in dem Dokument. „Wir gehen davon aus, dass wir erhebliche Ressourcen mobilisieren müssen, um unseren Auftrag zu erfüllen, werden aber stets darauf achten, Interessenkonflikte von Mitarbeitenden und Anteilseignern so gering wie möglich zu halten, damit der breite Nutzen nicht in Gefahr gerät.“

Die Fassung von 2026 (Quelle auf Englisch) betont dagegen, OpenAI müsse zwar weiterhin sichere Systeme entwickeln. Gleichzeitig müsse sich die Gesellschaft mit „jedem neuen Fähigkeitsniveau von KI auseinandersetzen, es verstehen, integrieren und gemeinsam den besten Weg nach vorn finden“.

Den Weg nach vorn sieht CEO und Mitgründer Sam Altman 2026 in einer umfassenden Demokratisierung von KI. Alle Menschen sollen Zugang erhalten, und das Unternehmen will der Vorstellung entgegentreten, die Technologie könne „Macht in den Händen einiger weniger konzentrieren“.

Das Prinzipienpapier von 2026 hält zudem fest, OpenAI solle mit Regierungen, internationalen Organisationen und anderen AGI-Initiativen zusammenarbeiten, um „schwere Probleme bei Ausrichtung, Sicherheit oder gesellschaftlichen Folgen ausreichend zu lösen, bevor wir weiter voranschreiten“.

Mögliche Beispiele nennt das Dokument ebenfalls: ChatGPT könne etwa helfen, Modelle zu bekämpfen, die neue Krankheitserreger erzeugen, oder besonders widerstandsfähige KI-Systeme in kritische Infrastrukturen einzubauen.

Altman selbst lieferte auf seinem privaten Blog Anfang des Monats Hinweise darauf, warum OpenAI AGI weniger stark in den Mittelpunkt stellt.

AGI habe etwas von einem „Ring der Macht“, der „Menschen zu verrückten Dingen treibt“, schrieb er. Dagegen helfe aus seiner Sicht nur eines: „Die Technologie breit mit den Menschen zu teilen – und dafür zu sorgen, dass niemand allein diesen Ring besitzt.“

OpenAI räumt Sicherheitsprojekten keinen Vorrang mehr ein

Im Jahr 2018 warnte OpenAI noch, die Entwicklung von AGI drohe zu einem „Wettlauf ohne Zeit für ausreichende Sicherheitsvorkehrungen“ zu werden.

Damals kündigte das Unternehmen an, im Zweifel eigene Modelle zu stoppen, um jedes Projekt zu unterstützen, das „unsere Werte teilt und besonders sicherheitsbewusst arbeitet“ und damit näher an echter AGI sei.

„Die genauen Kriterien werden wir noch ausarbeiten … aber ein typischer Auslöser könnte eine mehr als fünfzigprozentige Erfolgschance in den kommenden zwei Jahren sein“, heißt es im Papier von 2018.

Im Jahr 2026 ist von einem Zurücktreten zugunsten eines größeren Ziels keine Rede mehr. Stattdessen stellt das Dokument fest, OpenAI sei heute „eine weit einflussreichere Kraft in der Welt als noch vor einigen Jahren“ und verspreche, offen zu legen, wann und wie sich diese Grundsätze ändern könnten.

Das Unternehmen steht inzwischen in heftigem Wettbewerb mit mehreren Rivalen, darunter Anthropic.

Im Februar verweigerte Anthropic der Regierung von US-Präsident Donald Trump den uneingeschränkten Zugriff auf seine KI für militärische Zwecke. Daraufhin stufte Washington das Unternehmen als Risiko für die Lieferkette ein und untersagte Bundesbehörden im März, den KI-Assistenten Claude weiter zu nutzen.

Am 28. Februar sprang OpenAI in die Lücke und schloss einen Vertrag mit dem Department of War, dem US-Kriegsministerium. Daraufhin boykottierten einige Nutzerinnen und Nutzer ChatGPT und wichen auf Claude aus.

Anthropic wurde in diesem Monat zudem mit 800 Milliarden Dollar (rund 696 Milliarden Euro) bewertet – ähnlich hoch wie OpenAI.

Breite, aber vage Appelle an die Gesellschaft

Im Dokument von 2026 fordert OpenAI mehrere gesellschaftliche Reformen, damit die Welt sich besser auf KI einstellen kann.

„Wir stellen uns eine Welt vor, in der Wohlstand weit verbreitet ist und ein Niveau erreicht, das wir uns heute kaum ausmalen können“, heißt es. „Vieles, wovon wir bislang nur in Science-Fiction träumen, könnte Realität werden, und die meisten Menschen könnten sinnvollere Leben führen als heute.“

Diese Zukunft sei jedoch keineswegs garantiert, warnt das Papier. KI könne entweder „von einer kleinen Handvoll Unternehmen gehalten, genutzt und kontrolliert werden“ oder „in dezentraler Form in den Händen der Menschen liegen“.

Das Prinzipienpapier greift zudem einige von OpenAIs jüngsten politischen Vorschlägen auf. Regierungen sollen demnach über „neue Wirtschaftsmodelle“ nachdenken und Technologien fördern, die die Kosten für KI-Infrastruktur senken.

„Vieles von dem, was wir tun und was von außen merkwürdig wirkt – etwa der Kauf gewaltiger Rechenkapazitäten, obwohl unsere Einnahmen noch vergleichsweise gering sind –, folgt unserem grundlegenden Glauben an eine Zukunft des allgemeinen Wohlstands“, heißt es abschließend.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Auto China 2026: Chinas Autoriesen verändern Europas Automarkt

Neunsitzer startet nach 50 Metern: Norwegen setzt auf Hybridflugzeug

Europa im KI-Zeitalter: Kann der Kontinent seine Industriekonzerne halten?