DeepSeek stellt neue KI-Modelle für besseres Reasoning vor

DeepSeek hat zwei neue KI-Modelle vorgestellt, die besonders beim logischen Denken und Schlussfolgern neue Maßstäbe setzen sollen: DeepSeek-R1-Zero und DeepSeek-R1.

Das Besondere an DeepSeek-R1-Zero ist der Trainingsansatz: Das Modell wurde ausschließlich durch Reinforcement Learning (RL) trainiert, ohne vorheriges überwachtes Training. Diese Methode zeigt, dass KI-Modelle auch ohne menschliche Vorgaben Reasoning-Fähigkeiten entwickeln können.

Allerdings zeigte R1-Zero auch Schwächen, wie endlose Wiederholungen und Sprachmischungen. Die verbesserte Version DeepSeek-R1 nutzt daher zusätzlich initiale Trainingsdaten und erreicht damit Leistungen auf Augenhöhe mit OpenAIs-Modellen bei Mathematik, Programmierung und logischem Denken.

Besonders interessant: DeepSeek hat auch sechs kompaktere Modelle veröffentlicht, die das Wissen der großen Modelle durch Destillation übernehmen. Das 32B-Modell übertrifft dabei sogar OpenAI-o1-mini in verschiedenen Benchmarks.

Alle Modelle sind Open Source und können sowohl über die DeepSeek-Plattform als auch lokal genutzt werden. Sicherlich interessant für all diejenigen, die Zuhause Anwendungsfälle für KI und die entsprechende Hardware da haben.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich im SAP-Geschäft tätig und treibt gerne Menschen an. Behauptet von sich den Spagat zwischen Familie, Arbeit und dem Interesse für Gadgets und Co. zu meistern. Hat ein Faible für Technik im Allgemeinen. Auch zu finden bei Twitter, Instagram, XING und Linkedin, oder via Mail

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

8 Kommentare

  1. Dass sie an alle Größen denken freut mich am meisten. Für die meiste Automatisierung oder einen KI-Assistenten würde wohl ein 1.5 bis 8b Modell reichen und die laufen ja wirklich auf fast auf allen Geräten lokal. Selbst 14b geht gerade noch auf einem Mac Mini Basismodell. Gibt langsam echt keinen Grund mehr, warum Assistenten wie Siri noch so schlecht sind.

    • Hatte eben mal Zeit damit rumzuspielen und das Reasoning des 14b-Modells ist schon recht gut aber das Ergebnis auf Basis des Reasonings ist eher mau sobald man Englisch verlässt. Hier scheint es noch massiv Probleme mit der jew. Sprache zu geben. Im Reasoning kommt sowieso nur Englisch, was erwartbar war, aber dann wird es wild gemixt: erhalte teilweise deutsch-englisch-russisch-chinesische Antworten auf eine deutsche Frage 🙂

      Auf Englisch aber alles perfekt. Naja, vermutlich ist das 8b-Modell auf LLama-Basis anstatt der Qwen-Basis hier auch besser.

      Aber es ist sau-lahm, 10-13 token/s auf einem M1 Pro mit 16GB, klar, nicht so dolle dafür geeignet 🙂

      Ich muss mal das 1.5B ausgiebig testen. Ist jedenfalls deutlich performanter mit 70 token/s und BoundaryML funktioniert wohl auch sehr gut… hätte da so einige Ideen bzgl. Automatisierung.

    • Ah, wieder ein NATO-Troll bzw. Bot mit der üblichen Anti-Chinesischen Propaganda. Na, wie ist das Wetter in Riga beim NATO Zentrum für Strategische Kommunikation, aka Trollfabrik?

      Und übrigens: Dein erster Link ist pure Verschwörungstheorie und träfe genau so ebenso auf alle anderen Modelle zu (siehe Anstrengungen zum Thema Alignment).

      Dein zweiter Link ist lediglich eine potentielle Lücke im Chatbot welche offenbar auch genau so bei Claude zu finden war. Mit dem Modell hat es nichts zu tun.

      • Gähn, habe nicht behauptet, dass andere Modelle keine Probleme hätten. Aber in diesem Artikel geht es nunmal um DeepSeek. Mein Post war eine reine Sachinformation…kann man alles auch selbst überprüfen und sich eine eigene Meinung bilden. Niemand hindert Dich dran, die Dinger zum Programmieren zu verwenden oder nach Tian’anmen zu fragen.
        (Der Ton hier wird auch immer aggro-politischer…warum nur?)

        • „Mein Post war eine reine Sachinformation“

          Nein, der Link ist keine Sachinformation und ihm fehlen jegliche Belege – es ist das typische „China is bad“-Geraune. Siehe auch Kommentare drunter. Und der zweite Link hat nichts mit dem Modell zu tun.

          „Der Ton hier wird auch immer aggro-politischer…warum nur?“

          Ich passe mich nur an denn ich habe gelernt, dass man so heutzutage miteinander umgeht: einfach das Gegenüber als XYZ-Troll bezeichnen, abwerten, ausgrenzen, fertig. So einfach kann die Welt sein! 🙂

          • Das Problem Deines Posts ist, das er nicht in Ordnung ist. „Es gibt Warnungen.“ ist eine Sachinformation. Ob diesen zu trauen ist, kann jeder selbst entscheiden. Auch Du!

            Aber Dein Ton ist nicht in Ordnung! Erst einen Poster in eine ideologische Ecke stellen, dann die Information anzweifeln, danach dann mit What-Aboutism ablenken. Und das Ganze schaffst Du, ohne auch nur auf einen einzigen inhaltlichen Kritikpunkt der verlinkten Informationen einzugehen.

            • Das macht er auf anderen Plattformen auch @Ted, mach dir nichts draus. Er ist halt ein AfD-Wähler und hat starke kognitive Schwierigkeiten, auch bzgl. von Zusammenhängen erkennen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.