Microsoft ermöglicht lokales Ausführen von DeepSeek R1 auf Copilot+-PCs

Das Thema KI ist allgegenwärtig und Deepseek hat mit R1 ein mächtiges und energieeffizientes Modell auf den Markt geschmissen. Microsoft macht es nun möglich, eben jenes auch direkt auf Copilot+-PCs auszuführen. Die Einführung beginnt mit der Qualcomm Snapdragon X Plattform, gefolgt von Intel Core Ultra 200V und weiteren Systemen.

Die Neural Processing Units der Copilot+ PCs ermöglichen dabei eine besonders effiziente Ausführung der KI-Modelle. Die erste Version, DeepSeek-R1-Distill-Qwen-1.5B, ist bereits im AI-Toolkit verfügbar, während die größeren 7B und 14B Varianten in Kürze folgen sollen. Microsoft nutzt dabei verschiedene Optimierungstechniken wie 4-Bit Quantisierung für effiziente Speichernutzung und ein spezielles Sliding Window Design für schnelle Antwortzeiten.

Die Antwortzeit soll relativ zügig sein: Nur 130 Millisekunden bis zum ersten Token und eine Verarbeitungsgeschwindigkeit von 16 Token pro Sekunde bei kurzen Anfragen. Entwickler können die Modelle über die AI Toolkit VS Code Extension testen und in ihre eigenen Anwendungen integrieren.

Tipp für Mac-User am Rande: Pico AI Homelab. Mit der Software können Anwender ebenfalls massig Modelle laden und nutzen.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich im SAP-Geschäft tätig und treibt gerne Menschen an. Behauptet von sich den Spagat zwischen Familie, Arbeit und dem Interesse für Gadgets und Co. zu meistern. Hat ein Faible für Technik im Allgemeinen. Auch zu finden bei Twitter, Instagram, XING und Linkedin, oder via Mail

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

3 Kommentare

  1. Microsoft wird doch nicht etwas auf DeepSeek R1, 7B und 14B umschwenken? Das wäre ein gewaltiger Blow für OpenAI und ChatGPT…

  2. siktron_lan says:

    Was bedeutet denn „Energieeffizienz“ in diesem Zusammenhang?
    Gibt es Tests etc. wie sehr einzelne/mehrere Anfragen auf die Akkulaufzeiten gehen? Also reduziert sich die Laufzeit um die Hälfte, wenn man ständig mit dem Assistenten arbeiten würde?

  3. Datenschutz?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.