DeepSeek V3.1: Chinesisches Open-Source-Modell mit 685 Milliarden Parametern stellt US-Konkurrenz in den Schatten

Das chinesische KI-Unternehmen DeepSeek hat mit der Veröffentlichung seines neuesten Modells DeepSeek V3.1 international für Aufsehen gesorgt. Das System basiert auf 685 Milliarden Parametern und tritt als Open-Source-Lösung direkt gegen Konkurrenten wie OpenAI und Anthropic an. Mit dem Ansatz will DeepSeek den Zugang zu leistungsstarker KI demokratisieren und gleichzeitig die globale Wettbewerbslandschaft im Bereich künstlicher Intelligenz neu ordnen.
Ohne große Ankündigung stellte das Hangzhouer Start-up sein Modell über Hugging Face bereit. Innerhalb weniger Stunden schnellte die Popularität nach oben: Entwickler weltweit luden das System herunter und testeten es. Erste Benchmarks zeigen, dass DeepSeek V3.1 bei Programmieraufgaben mit 71,6% im Aider-Coding-Test ähnliche Werte erreicht wie die teuersten proprietären Sprachmodelle – und dies zu einem Bruchteil der Kosten.
Das System verarbeitet Kontexte von bis zu 128.000 Tokens, was ungefähr einem 400-seitigen Buch entspricht. Zudem unterstützt es mehrere Präzisionsformate wie BF16, FP8 und FP32. Besonders hervorzuheben ist die neue Hybridarchitektur, die Chat, Programmierung und logisches Denken in einem Modell vereint. Forschende entdeckten im Code außerdem spezielle Token, die auf integrierte Websuche und „Denkschritte“ hindeuten.
Während Konkurrenzprodukte enorme Gebühren verursachen, erledigt DeepSeek V3.1 komplexe Aufgaben ab 1,01 US-Dollar je Codieraufgabe. Vergleichbare Systeme benötigen dafür ein Vielfaches. Für Unternehmen mit vielen Interaktionen bedeutet das eine mögliche Kostenersparnis in Millionenhöhe.
Die Veröffentlichung erfolgte nur wenige Wochen nach dem Start von GPT-5 (OpenAI) und Claude 4 (Anthropic). Anders als die US-Modelle bleibt DeepSeek frei zugänglich und kann heruntergeladen, verändert und eigenständig eingesetzt werden. Damit setzt das Unternehmen bewusst ein Zeichen gegen die traditionelle Praxis, modernste KI hinter API-Schranken und hohen Lizenzgebühren zu verbergen.
Noch am Tag der Veröffentlichung lobten Entwickler und Wissenschaftler weltweit die Möglichkeiten des Modells. Auf Plattformen wie Reddit, X und Hugging Face entstanden sofort Diskussionen und Analysen zur Architektur. Innerhalb von Stunden war DeepSeek eines der meistgeladenen Projekte weltweit. Dieser Erfolg unterstreicht, dass sich im KI-Wettbewerb nicht Herkunft, sondern Leistungsfähigkeit und Kostenstruktur durchsetzen.
Mit V3.1 zeigt DeepSeek, dass Spitzenleistung auch von kleineren, fokussierten Teams erreicht werden kann. Offener Zugang zu KI dieser Größenordnung könnte die Abhängigkeit von US-Anbietern verringern und KI-Innovation weltweit beschleunigen. Gleichzeitig geraten klassische Geschäftsmodelle, die auf exklusivem Zugang basieren, massiv unter Druck.
DeepSeek V3.1 markiert eine Zäsur im globalen KI-Rennen. Der Trend verschiebt sich weg von der Frage, wer das stärkste Modell baut – hin zur Frage, wer es am zugänglichsten macht. Damit bricht DeepSeek mit dem Prinzip künstlicher Verknappung und liefert ein Signal: In der Zukunft geht es nicht nur um Intelligenz, sondern um Teilhabe an Innovation.
Verpasse keine News, folge mir auf WhatsApp oder Google News
Links mit einem * sind Partner-Links. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich eine kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!
