OpenAI stellt GPT-4.1 vor: Mehr Leistung bei geringeren Kosten
OpenAI hat heute eine neue Generation seiner KI-Modelle über die API vorgestellt. Die GPT-4.1-Familie besteht aus drei Varianten (GPT-4.1, GPT-4.1 mini und GPT-4.1 nano, alle mit Wissensstand Juni 2024) und verspricht Verbesserungen in den Bereichen Programmierung, Instruktionsverarbeitung und Kontextverständnis.
Die neuen Modelle übertreffen ihre Vorgänger in allen Bereichen. Bei der Programmierung erreicht GPT-4.1 einen Score von 54,6 % auf der SWE-bench Verified Skala – eine Verbesserung von über 21 Prozentpunkten gegenüber dem Vorgänger. Auch bei der Verarbeitung von Anweisungen zeigt sich ein deutlicher Fortschritt: Auf der MultiChallenge-Benchmark liegt die Steigerung bei 10,5 Prozentpunkten.
Eine wichtige Neuerung ist die Erweiterung des Kontextfensters auf 1 Million Token. Dies ermöglicht die Verarbeitung sehr großer Dokumente oder Codebases. Zum Vergleich: Der gesamte React-Quellcode würde achtmal in diesen Kontext passen.
Die Preisgestaltung wurde ebenfalls überarbeitet. GPT-4.1 ist 26 % günstiger als sein Vorgänger bei durchschnittlichen Anfragen. Das neue Nano-Modell positioniert sich als schnellste und kostengünstigste Option im Portfolio. Für wiederkehrende Kontextanfragen wurde der Prompt-Caching-Rabatt auf 75 % erhöht.
Das Unternehmen kündigte auch an, den Zugriff auf sein erst Ende Februar veröffentlichtes Sprachmodell GPT-4.5 über die API in Kürze einzustellen. Diese Entscheidung kommt für viele Entwickler und Unternehmen unerwartet, da GPT-4.5 als das bislang leistungsfähigste KI-Modell von OpenAI gilt. Entwickler sollten diesen Beitrag dazu lesen.
- WARUM IPAD − Das 11" iPad ist jetzt leistungsstärker und vielseitiger als je zuvor mit dem...
- WARUM IPAD AIR − Das iPad Air ist leistungsstark, vielseitig und in zwei Größen erhältlich. Es kommt...
- LEICHTGESCHWINDIGKEIT – Das MacBook Air mit dem M4 Chip macht Arbeit und Gaming superschnell. Mit Apple...
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Also nur über die API und nicht im normalen Plus Tarif verfügbar?
Kann mir jemand erklären wie ein LLM 1 Millionen Token verarbeiten kann? Die Matrizen müssen doch riesig werden und Berechnungszeit ins unermessliche steigen.
Normale Transformer haben quadratische Komplexität (O(n²)), daher wären 1 Mio Tokens brutal teuer in Speicher & Rechenzeit. Neue Modelle wie GPT-4 Turbo umgehen das mit:
Sparse oder lokale Attention (z. B. nur Nachbarn vergleichen)
Segmentierung / Sliding Windows
Memory-Mechanismen (z. B. Transformer-XL, RWKV)
FlashAttention für schnelle GPU-Optimierung
Damit bleibt der Speicherverbrauch handhabbar, und das Modell muss nicht wirklich eine 1 Mio × 1 Mio Attention-Matrix berechnen.
jop, da greifen zwei Grundgesetze der Informatik: it depends und it’s complicated
Danke für die Übersicht!
Welches chat gpt KI-Modell bekannt man wenn man Apple Intelligenz am IPhone 16 nutzt?
Wahrscheinlich das, welches man in der App einstellt. Denke ich mal.
Du nutzt dann GPT-4o, unabhängig was du in deiner App eingestellt hast
wenn wer bissi Zeit und Buntstifte bereit hat möge er bitte mal ein who is who malen. Also 4.1 ersetzt das nun 4.5? Und was ist mit o3 und o4? Das ist langsam noch weirder als die Apple Silicon M Namen
Also über die Namensgebung sollte OpenAI nochmal nachdenken…
Bin gespannt wie potent dann die Ergebnisse sind, wenn man das Kontextfenster nahezu ausreizt.. 1 Mio. Token sind schon eine Ansage.. Aber bei der Konkurrenz bedeutet das dann, wenn man in diese Bereiche kommt, dass mehr Halluzination als richtige Antworten dabei sind.
Bin gespannt.