Mistral stellt Small 3.1 vor: Das leistungsstärkste KI-Modell seiner Klasse

Mistral hat Small 3.1 vorgestellt, ein unter Apache 2.0 lizenziertes KI-Modell, das die Konkurrenz in seiner Gewichtsklasse angeblich übertreffen soll. Das Modell besitzt 24 Milliarden Parameter und möchte mit verbesserten Text- und Multimodal-Fähigkeiten sowie einem erweiterten Kontextfenster von 128k Token überzeugen.

Das sind die Leistungsmerkmale im Überblick

  • Übertrifft vergleichbare Modelle wie Gemma 3 und GPT-4o Mini
  • 150 Token pro Sekunde Inferenzgeschwindigkeit
  • Läuft auf einzelner RTX 4090 oder Mac mit 32GB RAM
  • Unterstützt mehrere Sprachen und Multimodal-Eingaben
  • Geeignet für Function Calling und Conversational AI

Das Modell ist ab sofort über Hugging Face verfügbar und wird in den kommenden Wochen auch auf NVIDIA NIM und Microsoft Azure AI Foundry erscheinen. Für Unternehmensanwendungen bietet Mistral eine optimierte Inferenz-Infrastruktur an.

Die Benchmarks findet ihr direkt bei Mistral. Diese zeigen durchweg überlegene Leistung in Bereichen wie Textverständnis, multimodales Lernen und Verarbeitung langer Kontexte. Nicht schlecht, was das französische Unternehmen in der letzten Zeit so auf die Beine stellt.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich im SAP-Geschäft tätig und treibt gerne Menschen an. Behauptet von sich den Spagat zwischen Familie, Arbeit und dem Interesse für Gadgets und Co. zu meistern. Hat ein Faible für Technik im Allgemeinen. Auch zu finden bei X (Twitter), Threads, Instagram, XING und Linkedin, per Website oder via Mail

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

3 Kommentare

  1. > Läuft auf einzelner RTX 4090 oder Mac mit 32GB RAM

    Nicht ganz.
    Ich habe mich gestern auch – zu früh – gefreut:

    > Note: Running Mistral-Small-3.1-24B-Instruct-2503 on GPU requires ~55 GB of GPU RAM in bf16 or fp16.

    Das volle Modell braucht 55 GB RAM.

    > Mistral Small 3.1 can be deployed locally and is exceptionally „knowledge-dense,“ fitting within a single RTX 4090 or a 32GB RAM MacBook once quantized.

    Um auf 32 GB laufen zu können, muss sie quantisiert werden, damit wird die Genauigkeit reduziert.

    • Schade! Wird wohl noch eine Zeit dauern, bis sich die Lücke für die Offlineanwendung schließt.

      • Aber nicht mehr lange – find es erstaunlich wie schnell wir von einer „nur online in der 100Mrd-Cloud ausführbar“, zu „läuft daheim auf dem Rechner in der vollen Variante“ gekommen sind (etwas überspitzt ausgedrückt).
        Kann es mir gerade nicht auszumalen wo wir in 1-2 Jahren sind.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.