Elon Musks Raumfahrtfirma SpaceX hat ihren Colossus-1-Supercomputer an Anthropic vermietet und verschafft dem Claude-Entwickler damit enorme Rechenpower – trotz zuvor erbitterter Rivalität.
Als Anthropic-Produktchefin Ami Vora in der vergangenen Woche auf der Entwicklerkonferenz „Code with Claude“ in San Francisco die Bühne betrat, rechnete das Publikum wohl mit Neuigkeiten zu neuen Modellen.
Stattdessen verkündete Vora, dass Anthropic mit SpaceX einen Vertrag geschlossen hat und die vollständige Kontrolle über das Rechenzentrum Colossus 1 in Memphis übernimmt. Eine Konstellation, die noch vor wenigen Monaten undenkbar schien.
Der Deal verschafft Anthropic Zugriff auf mehr als 300 Megawatt zusätzliche Kapazität und über 220.000 NVIDIA-GPUs innerhalb eines Monats, heißt es in einer späteren Mitteilung des Unternehmens. Davon profitieren direkt die Abonnentinnen und Abonnenten der Tarife Claude Pro und Claude Max.
Eine Partnerschaft zwischen Musk und Anthropic galt bislang als kaum vorstellbar. Der Mann, der Anthropic noch vor wenigen Monaten als „böse“ und als Unternehmen beschimpfte, das die „westliche Zivilisation hasst“, kontrolliert nun die Infrastruktur, mit der Claude ausgebaut wird und mit der Anthropic erweiterte Angebote für zahlende Nutzerinnen und Nutzer einführt.
Woke-KI und ihr Gegenentwurf
Anthropic entstand im Jahr 2021. Gründer sind Dario Amodei, Daniela Amodei und eine Gruppe von Forschenden, die OpenAI verließen, weil ihnen der Umgang mit Sicherheitsfragen zu lax erschien.
Das gesamte Markenprofil des Unternehmens beruht auf „verantwortungsvoller KI“. Seine Modelle werden mit Constitutional AI trainiert, einem Rahmenwerk mit fest verankerten ethischen Leitplanken. Nach Angaben der Entwicklerinnen und Entwickler macht es Claude eher als Konkurrenzsysteme bereit, Anfragen abzulehnen, bei sensiblen Themen Unsicherheit zu äußern oder Eingaben zurückzuweisen, die das System als schädlich einstuft.
Grok kam dagegen im Jahr 2025 auf den Markt, in einer Phase, in der Musk besonders eng mit der Regierung von Donald Trump verbunden war. Damals nutzte er X täglich, um Mainstream-Medien ideologische Zensur vorzuwerfen und rechtsextreme Parteien in Europa zu unterstützen, darunter die Alternative für Deutschland. Die Marke Grok positionierte sich ausdrücklich als „anti-woke“.
Anthropic hat sich stets geweigert, die Sicherheitsvorkehrungen von Claude für den Einsatz in autonomen Waffensystemen zu entfernen, auch in solchen, die im laufenden Iran-Krieg eingesetzt werden.
Musk unterstützte zugleich außenpolitische Hardliner-Positionen und hat, gemeinsam mit Google und OpenAI, Verteidigungsverträge mit dem Pentagon geschlossen. Anthropic lehnte dieselben Vertragsbedingungen im Februar ab, nachdem das Unternehmen im Juli 2025 noch zugestimmt hatte. Seither stuft das Pentagon Anthropic als Risiko für die Lieferkette ein und schließt es von militärischen Aufträgen aus.
Krise bei Grok?
Musks Firma xAI setzte im Quartal bis Ende September 2025 rund 107 Millionen Dollar (91 Millionen Euro) um, verbuchte im selben Zeitraum jedoch einen Nettoverlust von 1,46 Milliarden Dollar (1,24 Milliarden Euro). Anthropic kommt nach Schätzungen von Analysten inzwischen auf eine hochgerechnete Jahresumsatzrate von rund 30 Milliarden Dollar (25,5 Milliarden Euro).
Die „anti-woke“ Positionierung, die Grok vom Wettbewerb abheben sollte, brachte im Geschäftskundensegment kaum Einnahmen. Grok fehlte die Technik, mit der KI-Modelle über den Chat hinaus direkte Abläufe auf einem Computer steuern können.
Gleichzeitig eröffneten Anthropic mit Claude Cowork und OpenAI mit Codex eine völlig neue Art, KI-Modelle zu nutzen. Der Erfolg der Produkte übertraf Anthropics verfügbare Rechenkapazitäten deutlich und zeigte, wie stark das Unternehmen seine eigene Nachfrage unterschätzt hatte. Deshalb wandte sich Anthropic nun an SpaceXAI, um zusätzliche Kapazitäten zu sichern.
Grok blieb dagegen im klassischen Chatbot-Paradigma stecken. Die enge Verzahnung mit X wirkte zunächst wie ein Vertriebsvorteil, entwickelte sich aber zu einer Wachstumsfalle. Das Produkt drehte sich vor allem um Interaktionen in sozialen Netzwerken, nicht um das Erledigen von Aufgaben, die Automatisierung von Arbeitsabläufen oder andere Dienstleistungen, für die Nutzerinnen und Nutzer tatsächlich zahlen.
Den entscheidenden Schlag für die Marke Grok versetzte ein Skandal Anfang 2026. Innerhalb von neun Tagen erzeugte der Chatbot mindestens eine Komma acht Millionen sexualisierte Darstellungen von Frauen sowie auch Bilder Minderjähriger. Aufsichtsbehörden in Europa, Asien und den Vereinigten Staaten leiteten daraufhin Ermittlungen ein.
„Das ist nicht pikant. Das ist illegal. Das ist empörend. Dafür ist in Europa kein Platz“, erklärte damals Thomas Regnier, Sprecher der EU-Kommission für Digitales, sagte er damals.
Seit Bekanntgabe des Deals betont Musk, er könne Colossus 1 guten Gewissens an Anthropic vermieten, weil SpaceXAI sein eigenes Training bereits nach Colossus 2 verlagert habe.
Auf X formulierte Musk jedoch einen bemerkenswerten Vorbehalt: SpaceXAI behalte sich das „Recht vor, die Rechenleistung zurückzufordern“, falls die KI von Anthropic „Handlungen begeht, die der Menschheit schaden“.
In der offiziellen Pressemitteilung taucht diese Klausel nicht auf. Ob sie im eigentlichen Vertrag steht, ist bislang offen.
Was genau als „Schaden für die Menschheit“ gilt, ist nirgends definiert. Die Entscheidung könnte also allein bei Musk liegen. Möglich ist auch, dass er damit in letzter Minute etwas Distanz dazu schaffen will, dass er nun direkt das Wachstum seines „woken“ Konkurrenten ermöglicht. Gleichzeitig gerät sein eigenes KI-Projekt zunehmend ins Stocken.