Anthropic und OpenAI holen Chemie- und Sprengstoffexpertinnen an Bord, um strengere Sicherheitsgrenzen für ihre KI-Systeme zu entwickeln.
Die KI-Unternehmen Anthropic und OpenAI wollen Waffen- und Sprengstoffexperten einstellen. So wollen sie verhindern, dass ihre Technologie missbraucht wird. Das geht aus Stellenausschreibungen beider Firmen hervor.
Anthropic teilte in einem LinkedIn-Beitrag (Quelle auf Englisch) mit, dass das Unternehmen eine Fachkraft für Chemiewaffen und Explosionen sucht. Sie soll festlegen, wie die KI-Systeme mit sensiblen Informationen aus diesen Bereichen umgehen. Ziel ist es, einen „katastrophalen Missbrauch“ der eigenen Technologie zu verhindern.
Die neue Fachkraft soll Leitplanken entwerfen und überwachen, wie die Modelle auf Anfragen zu Chemiewaffen und Sprengstoffen reagieren. Außerdem soll sie „schnelle Reaktionen“ koordinieren, falls Anthropic eine Zuspitzung bei entsprechenden Eingaben bemerkt.
Bewerberinnen und Bewerber sollten mindestens fünf Jahre Erfahrung in der Abwehr von Chemiewaffen und/oder Sprengstoffen mitbringen. Zudem benötigen sie Kenntnisse über „radiological dispersal devices“, also schmutzige Bomben. Zu der Stelle gehört die Entwicklung (Quelle auf Englisch) neuer Risikobewertungen, auf die die Unternehmensführung bei besonders heiklen Produkteinführungen „vertrauen kann“.
OpenAI sucht laut einer Stellenausschreibung von Anfang des Monats Forschende für sein Preparedness-Team, das „katastrophale Risiken im Zusammenhang mit hochentwickelten KI-Modellen“ beobachtet.
Außerdem will das Unternehmen eine Position als sogenanntem Threat Modeler besetzen. Diese Person soll in erster Linie „Grenzrisiken identifizieren, modellieren und vorhersagen“ und als „zentrale Schnittstelle zwischen technischen, Governance- und Politikperspektiven dienen, wenn es um Prioritäten, Schwerpunkte und Begründung unseres Ansatzes zu Grenzrisiken von KI geht“.
Euronews Next bat Anthropic und OpenAI um eine Stellungnahme zu den Ausschreibungen, erhielt jedoch zunächst keine Antwort.
Die neuen Stellen kommen, nachdem Anthropic rechtlich gegen die US-Regierung vorgegangen ist. Washington hatte das Unternehmen als „Supply-Chain-Risiko“ eingestuft. Mit diesem Label kann die Regierung Verträge blockieren oder Behörden anweisen, nicht mit der Firma zusammenzuarbeiten.
Der Konflikt begann am 24. Februar, als das US-Kriegsministerium (Department of War, DOW) uneingeschränkten Zugriff auf den Chatbot Claude von Anthropic verlangte.
CEO Dario Amodei erklärte (Quelle auf Englisch), Verträge mit dem DOW dürften keine Fälle umfassen, in denen Claude für massenhafte Überwachung im Inland genutzt oder in vollständig autonome Waffensysteme integriert wird.
Kurze Zeit nach dem Zerwürfnis mit Anthropic schloss OpenAI ein Abkommen mit dem Department of War (DOW), um seine KI in geheimen Umgebungen einzusetzen. Das Unternehmen betonte, die Vereinbarung enthalte strenge rote Linien. Die Systeme dürften demnach nicht für Massenüberwachung oder autonome Waffen genutzt werden.