DeepSeek stellt neue KI-Modelle für besseres Reasoning vor
DeepSeek hat zwei neue KI-Modelle vorgestellt, die besonders beim logischen Denken und Schlussfolgern neue Maßstäbe setzen sollen: DeepSeek-R1-Zero und DeepSeek-R1.
Das Besondere an DeepSeek-R1-Zero ist der Trainingsansatz: Das Modell wurde ausschließlich durch Reinforcement Learning (RL) trainiert, ohne vorheriges überwachtes Training. Diese Methode zeigt, dass KI-Modelle auch ohne menschliche Vorgaben Reasoning-Fähigkeiten entwickeln können.
? DeepSeek-R1 is here!
? Performance on par with OpenAI-o1
? Fully open-source model & technical report
? MIT licensed: Distill & commercialize freely!? Website & API are live now! Try DeepThink at https://t.co/v1TFy7LHNy today!
? 1/n pic.twitter.com/7BlpWAPu6y
— DeepSeek (@deepseek_ai) January 20, 2025
Allerdings zeigte R1-Zero auch Schwächen, wie endlose Wiederholungen und Sprachmischungen. Die verbesserte Version DeepSeek-R1 nutzt daher zusätzlich initiale Trainingsdaten und erreicht damit Leistungen auf Augenhöhe mit OpenAIs-Modellen bei Mathematik, Programmierung und logischem Denken.
Besonders interessant: DeepSeek hat auch sechs kompaktere Modelle veröffentlicht, die das Wissen der großen Modelle durch Destillation übernehmen. Das 32B-Modell übertrifft dabei sogar OpenAI-o1-mini in verschiedenen Benchmarks.
DeepSeek's first-generation reasoning models are achieving performance comparable to OpenAI's o1 across math, code, and reasoning tasks!
Give it a try! ?
7B distilled:
ollama run deepseek-r1:7bMore distilled sizes are available. ? pic.twitter.com/FdF1U3qvev
— ollama (@ollama) January 20, 2025
Alle Modelle sind Open Source und können sowohl über die DeepSeek-Plattform als auch lokal genutzt werden. Sicherlich interessant für all diejenigen, die Zuhause Anwendungsfälle für KI und die entsprechende Hardware da haben.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Dass sie an alle Größen denken freut mich am meisten. Für die meiste Automatisierung oder einen KI-Assistenten würde wohl ein 1.5 bis 8b Modell reichen und die laufen ja wirklich auf fast auf allen Geräten lokal. Selbst 14b geht gerade noch auf einem Mac Mini Basismodell. Gibt langsam echt keinen Grund mehr, warum Assistenten wie Siri noch so schlecht sind.