DeepSeek V3: Verbesserte Version vorgestellt

DeepSeek hat etwas überraschend eine neue Version seines Sprachmodells V3 veröffentlicht. Es handelt sich um Release 0324. Das 641 GB große Modell hat einen entscheidenden Vorteil. Es läuft performant auf Consumer-Hardware wie dem Mac Studio mit M3 Ultra und ist unter MIT-Lizenz frei auch für kommerzielle Einsatzzwecke nutzbar. Ich bezweifle zwar, dass man einen Mac Studio mit M3 Ultra und 512 GB „Consumer-Hardware“ nennen kann, aber es ist relativ wenig Investition zum Betrieb des Modells nötig.

Technische Spezifikationen:

  • 685 Milliarden Parameter
  • Mixture-of-Experts Architektur (nur 37 Milliarden aktive Parameter pro Aufgabe)
  • Multi-Head Latent Attention für besseren Kontext
  • Multi-Token Prediction für 80% schnellere Ausgabe
  • 4-Bit Version benötigt „nur“ 352GB Speicher

Die Leistung soll Claude Sonnet 3.5 übertreffen, während der Energieverbrauch mit unter 200 Watt deutlich niedriger liegt als bei anderen Modellen, die hungrige GPUs erfordern. DeepSeeks Open-Source-Strategie steht im Kontrast zu den anderen KI-Unternehmen.

Das Modell ist über Hugging Face, OpenRouter API oder DeepSeeks eigene Chat-Schnittstelle zugänglich und soll als Basis für das kommende Reasoning-Modell DeepSeek-R2 dienen.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich im SAP-Geschäft tätig und treibt gerne Menschen an. Behauptet von sich den Spagat zwischen Familie, Arbeit und dem Interesse für Gadgets und Co. zu meistern. Hat ein Faible für Technik im Allgemeinen. Auch zu finden bei X (Twitter), Threads, Instagram, XING und Linkedin, per Website oder via Mail

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

7 Kommentare

  1. Was ist eigentlich der Vorteil, wenn Deepseek lokal und nicht über das Internet läuft? Geht es da nur darum, das wenn Firmen fragen haben, die vielleicht eher intern sind und das Haus nicht verlassen sollen das man dann sicher ist, oder hat es weitere Vorteile?

    Ich habe da aber wohl noch einen Denkfehler drin, woher holt sich das Sprachmodel denn die Infos, wenn alles lokal läuft?

    • RegularReader says:

      Du musst dafür ja nicht aus Spaß über 500 Gigabyte in den Speicher laden. Genau darin verstecken sich auch alle Antworten, die das Modell gibt.

    • Na ja, das was du da als „Modell“ bekommst ist am Ende das neuronale Netz wo halt die Daten drin gelernt sind. Prinzipiell ist das so, als würde man dein Gehirn halt irgendwohin kopieren und es dann da anschließen um ihm Fragen stellen zu können. Da musst du eben nicht mehr auf Wikipedia in dem Moment nachschauen, weil du hast es ja schon gelesen und dir gemerkt was drin steht.
      Der Vorteil sowas lokal zu haben ist definitiv, damit dass Unternehmen dahinter nicht am Ende alle deine Anfragen mitliest. Da geht’s um Datensicherheit.

    • Gewisse Daten liegen lokal und du hast ja in der Hand, welche Informationen besorgt werden und wie diese verarbeitet werden.
      Wenn du das Ding selbst betreibst, kann es ja auf das Netz zugreifen, aber die Anfragen fließen ja nicht an irgendeinen Hersteller, sondern bleiben auf deiner Hardware.

    • Ja, nicht jeder möchte seine Daten/Quellcode öffentlich den Betreibern der Modelle zur Verfügung stellen. Zumal die Daten auch benutzt werden, um die Modelle weiter zu trainieren.

      Infos muss sich das Modell nicht aus dem Internet holen. In den 640GB steckt schon quasi das gesamte Wissen der Menschheit drin. Internet bräuchte ein Modell nur für aktuelle Recherchen.

    • Der Vorteil von DeepSeek lokal ist Datenschutz (sensible Daten bleiben intern), Offline-Nutzung (kein Internet nötig) und Anpassbarkeit (Modell je nach dem anpassbar).

      Die Infos stammen aus Trainingsdaten oder lokalen Quellen, nicht live aus dem Internet, daher ist der Wissensstand „eigefroren“.

  2. Das ist schon sehr beeindruckend. Ich hoffe es wird auch bald genauso hartnäckig an der Effizienz gearbeitet. Der Fokus ist aber wohl vorerst ein anderer.
    Ein Mac Studio mit 512gb für schlappe fast 12000eur.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.