Chinesisches KI-Startup kehrt zurück: Vor einem Jahr wirbelte es die Branche mit Spitzenrechenleistung zum Bruchteil der Kosten anderer Modelle auf.
Das chinesische KI-Unternehmen DeepSeek hat eine Vorschau auf sein neues großes Sprachmodell V4 vorgestellt. Der weltweite Wettlauf um Künstliche Intelligenz nimmt damit weiter Fahrt auf.
DeepSeek rückte im vergangenen Jahr ins Zentrum der Aufmerksamkeit, nachdem das Unternehmen im Januar 2025 Modelle auf den Markt gebracht hatte, die eine starke Leistung zu geringeren Kosten als viele US-Konkurrenten boten.
Das in Hangzhou ansässige Start-up bringt das Modell in zwei Varianten: DeepSeek V4-Pro und DeepSeek V4-Flash. V4-Pro ist die größere Version für besonders anspruchsvolle Aufgaben. V4-Flash ist kleiner, antwortet dafür schneller und ist im Betrieb günstiger.
„In globalen Wissens-Benchmarks liegt DeepSeek V4-Pro deutlich vor anderen Open-Source-Modellen und wird nur geringfügig vom Spitzenmodell Gemini-3.1-Pro mit geschlossenem Quellcode übertroffen“, erklärte DeepSeek.
Das Unternehmen erklärte, das neue KI-Modell unterstütze eine Kontextlänge von eine Million Token. Es kann damit deutlich größere Eingaben wie lange Dokumente oder Programmcode verarbeiten, bevor es eine Antwort erzeugt.
In der KI bezeichnet die Kontextlänge die Textmenge, gemessen in Token, die ein Modell auf einmal berücksichtigen kann. Ein größeres Kontextfenster erlaubt es einem Modell, längere Eingaben zu verarbeiten und mehr Informationen in eine Ausgabe zu packen, erklärt IBM (Quelle auf Englisch).
„Willkommen im Zeitalter der kosteneffizienten Kontextlänge von eine Million Token“, schrieb das Unternehmen in einer Mitteilung auf Hugging Face, einer Open-Source-Plattform für KI.
DeepSeek erklärte außerdem, V4 biete „eine weltweit führende Langkontext-Verarbeitung bei drastisch reduzierten Rechen- und Speicherkosten“.
DeepSeek stellte V4-Pro Vergleichstests mit Konkurrenzmodellen von OpenAI, Anthropic und Google gegenüber, auch wenn Googles Gemini-3.1-Pro in einigen Prüfungen höhere Werte erzielte.
Das neue Modell arbeitet mit verbreiteten KI-Agenten wie Claude Code, OpenClaw und OpenCode zusammen. Entwickelnde können es damit auch für Softwareaufgaben außerhalb von DeepSeeks eigenem Chatbot einsetzen.
DeepSeek gilt im Vergleich zu vielen Wettbewerbern mit geschlossenen Modellen als deutlich offener. Das Unternehmen stellt V4 auf Hugging Face zum Herunterladen, Testen und freien Anpassen bereit.
Ende 2024 hatte das chinesische Start-up mit seinem Open-Source-Modell V3 für Aufsehen gesorgt. Es überzeugte mit starker Leistung, niedrigeren Kosten und weniger leistungsfähigen Chips als viele US-Rivalen wie OpenAI und Google.
Globales Wettrennen um KI
International machte DeepSeek im Januar 2025 Schlagzeilen, als das Unternehmen R1 vorstellte, ein KI-Modell zum logischen Schlussfolgern. Nach eigenen Angaben war es günstiger und genauso leistungsfähig wie die großen Sprachmodelle von OpenAIs ChatGPT.
Allerdings untersagten einige Länder ihren Regierungsbehörden die Nutzung von DeepSeek, darunter Italien, die Vereinigten Staaten und Südkorea. Sie verwiesen auf Risiken für die nationale Sicherheit.
Deutschland ließ DeepSeek 2025 zudem aus den App-Stores von Apple und Google entfernen. Die Behörden begründeten dies mit einer rechtswidrigen Übermittlung von Nutzerdaten nach China.
Die Veröffentlichung von V4 erfolgt einen Tag, nachdem der US-Konzern OpenAI sein neues Modell GPT-5.5 vorgestellt hat. OpenAI bezeichnet es als bisher „klügstes und intuitivstes“ System.
Am selben Tag warf zudem das Weiße Haus China vor, geistiges Eigentum US-amerikanischer KI-Labore im industriellen Maßstab zu stehlen – über Tausende von Proxy-Konten.
OpenAI, Anthropic und Google warnten in diesem Jahr, chinesische KI-Unternehmen wie DeepSeek führten sogenannte Model-Extraction-Angriffe (MEA) durch, auch „Distillation“ genannt.
Dabei erhält das große Modell Tausende Fragen, deren Antworten gesammelt werden. Diese Antworten dienen dann als Trainingsmaterial für ein neues, kleineres Modell, das so ähnlich „denken“ soll.