Deepseek veröffentlich Version 3.1 seines LLMs

Deepseek hat vor einiger Zeit bereits begonnen, den LLM-Markt aufzumischen. Es gibt zwar etliche Diskussionen um Zensur etc. bei der in der Cloud gehosteten Variante, doch durch Open Source kann das Ganze auch komplett selbst gehostet werden, ohne dass jemand aus China eventuell Eingaben zu Gesicht bekommt.
Mit DeepSeek V3.1 hat das chinesische Start-up jetzt einen 685-Milliarden-Parameter-Koloss als Konkurrenz zu OpenAI und Anthropic veröffentlicht und damit mal wieder für etwas Aufsehen gesorgt. Das Modell erreicht Benchmarks auf Augenhöhe mit den Großen der Branche, kostet aber nur einen Bruchteil und ist frei zugänglich. Das Modell besitzt ein größeres Kontext-Fenster und kombiniert Chat, Codeassistenz und Reasoning in einem Modell.
Wer möchte, kann das Modell direkt bei Hugging Face finden. Bei Ollama ist das LLM noch nicht verfügbar.
? BREAKING: DeepSeek V3.1 is Here! ?
The AI giant drops its latest upgrade — and it’s BIG:
?685B parameters
?Longer context window
?Multiple tensor formats (BF16, F8_E4M3, F32)
?Downloadable now on Hugging Face
?Still awaiting API/inference launchThe AI race just got… pic.twitter.com/nILcnUpKAf
— DeepSeek News Commentary (@deepsseek) August 19, 2025
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Welche KI ist denn besser für private Chats? Datenschutz geben sich alle nicht viel. Ich nutze zur Zeit chatgpt und deepseek aber ich weiß halt nicht welche besser geeignet ist für intime Themen
Wenn’s um Datenschutz geht, dann betreibe Deepseek lokal. Dann wird nichts geteilt. Bei allen Online-LLMs gibt’s keine Garantie.
Versuche es mal mit Lumo von Proton:
https://lumo.proton.me
greez
Installiere dir einfach mehrere verschiedene Modelle lokal, z.B. mit https://lmstudio.ai/ und nimm das, was dir am besten gefällt. Am besten immer das größte Modell, das in den Arbeitsspeicher passt nehmen.
Wieviel ram braucht das neue Modul??
ein wenig mehr als 131 GB RAM. Läuft relativ stabil