Mistral veröffentlicht sein Mistral Large 2 LLM

Quelle: Mistral

Schlag auf Schlag geht es weiter bei den LLMs und nach Llama 3.1 folgt Mistral mit seinem Modell Mistral Large 2(2407). Es hat eine Kontextgröße von 128.000 und 123 Milliarden Parameter. Es soll effizient und schnell sein, ist aber mit ca. 5 €/Million Token nicht billig. Mistral zeigt in seinem Blogbeitrag auch Benchmarks und offenbart einige interessante Aspekte, wie die Mehrsprachigkeit und die Fähigkeit, Anweisungen zu folgen. In beiden Bereichen schneidet Mistral Large 2 gut ab und kommt an GPT-4o oder Claude 3.5 Sonnet heran.

Quelle: Mistral

Besonderer Wert soll auf die Vermeidung von „Halluzinationen“ gelegt worden sein. Das Modell soll sogar darauf trainiert worden sein, vorsichtig und genau zu antworten und gegebenenfalls zuzugeben, wenn es eine Frage nicht beantworten kann.

Quelle: Mistral

Auch dieses Modell habe ich kurz getestet und muss sagen, dass es sich teilweise besser schlägt als Llama 3.1-405B. Eine Schwäche der Llama-Modelle zeigt sich hier besonders, sie sind nicht besonders gut im Folgen von Anweisungen. Dafür ist Large-2 aber auch nicht so gut im Reasoning und hat bei meinen Tests auch einfach Dinge übersetzt, die nicht übersetzt werden sollten (Funktion in TypeScript). Im Moment ist aber Claude 3.5 Sonnet mein Favorit, es ist einfach zuverlässig in der Ausgabe und vergleichsweise günstig. Was ist euer Favorit?

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Als ehrenamtlicher First-Level-Support und quasi Apple-Jünger, der gerne seine Lebenszeit in Tech-Blogs verbrennt, stehe ich auch gerne für hitzige Diskussionen zur Verfügung.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

5 Kommentare

  1. Ich teste immer das Modell, von dem ich denke, dass es mir am meisten nützen könnte. Am liebsten jedoch Claude Sonnet 3.5, GPT-4o und das Mini-Modell davon, wenn es schnell gehen muss und nichts kosten soll.
    Ach ja, ich nutze das alles über einen Multi-LLM-Anbieter namens Straico, habe dort mal günstig eine Lifetime-Lizenz erworben. Für meine Arbeit ist das wunderbar, ständig Updates, ich kann mich nicht beklagen.

  2. Derzeit habe ich keinen Favoriten und meine Spielphase ist auch vorbei.
    Davon abgesehen ist die Frage wie lange das noch so weitergeht.
    Denn das „nicht billig“ ist wohl nach der Meldung https://www.heise.de/news/OpenAI-drohen-Miese-in-Hoehe-von-5-Milliarden-US-Dollar-9813052.html immer noch viel zu billig.
    Die AI Firmen verdienen kein Geld, sie verbrennen es massiv und der Nutzen ist immer noch kaum gegeben.
    Der einzige der derzeit gut verdient ist der Verleiher der Schaufeln, also NVIDIA.
    Also wird AI in Zukunft entweder massiv teurer oder geht unter.
    Spätestens wenn die ersten Investoren Geld sehen wollen.

  3. LLMs? Entschuldigung, worum geht es in diesem Artikel?
    Wir haben jetzt einen ChatGPT-Zugang von unserem Arbeitgeber zum Testen bekommen, aber niemandem will etwas dienstliches einfallen…

  4. https://www.faz.net/pro/d-economy/kuenstliche-intelligenz/generative-ki-bringt-aktuell-mehr-produktivitaet-aber-kaum-umsatzzuwachs-19874375.html

    Ja, jedes Hypethema nordet sich ein.

    Sei es, daß man jetzt feststellt, daß Microservices oft zu OverEngineering führen, die Cloud gerne 100-150% Mehrkosten erzeugt bei Lift&Shift, etc. pp.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.