OpenAI stellt GPT-4.1 vor: Mehr Leistung bei geringeren Kosten

OpenAI hat heute eine neue Generation seiner KI-Modelle über die API vorgestellt. Die GPT-4.1-Familie besteht aus drei Varianten (GPT-4.1, GPT-4.1 mini und GPT-4.1 nano, alle mit Wissensstand Juni 2024) und verspricht Verbesserungen in den Bereichen Programmierung, Instruktionsverarbeitung und Kontextverständnis.

Die neuen Modelle übertreffen ihre Vorgänger in allen Bereichen. Bei der Programmierung erreicht GPT-4.1 einen Score von 54,6 % auf der SWE-bench Verified Skala – eine Verbesserung von über 21 Prozentpunkten gegenüber dem Vorgänger. Auch bei der Verarbeitung von Anweisungen zeigt sich ein deutlicher Fortschritt: Auf der MultiChallenge-Benchmark liegt die Steigerung bei 10,5 Prozentpunkten.

Eine wichtige Neuerung ist die Erweiterung des Kontextfensters auf 1 Million Token. Dies ermöglicht die Verarbeitung sehr großer Dokumente oder Codebases. Zum Vergleich: Der gesamte React-Quellcode würde achtmal in diesen Kontext passen.

Die Preisgestaltung wurde ebenfalls überarbeitet. GPT-4.1 ist 26 % günstiger als sein Vorgänger bei durchschnittlichen Anfragen. Das neue Nano-Modell positioniert sich als schnellste und kostengünstigste Option im Portfolio. Für wiederkehrende Kontextanfragen wurde der Prompt-Caching-Rabatt auf 75 % erhöht.

Das Unternehmen kündigte auch an, den Zugriff auf sein erst Ende Februar veröffentlichtes Sprachmodell GPT-4.5 über die API in Kürze einzustellen. Diese Entscheidung kommt für viele Entwickler und Unternehmen unerwartet, da GPT-4.5 als das bislang leistungsfähigste KI-Modell von OpenAI gilt. Entwickler sollten diesen Beitrag dazu lesen.

Angebot
Apple iPad mit A16 Chip: 11" Liquid Retina Display, 128 GB, WLAN 6, 12 MP Front /12 MP Rückkamera, Touch ID,...
  • WARUM IPAD − Das 11" iPad ist jetzt leistungsstärker und vielseitiger als je zuvor mit dem...

Angebot
Apple iPad Air 11" mit M3 Chip: Apple Intelligence, Liquid Retina Display, 128 GB, 12 MP Frontkamera/Rückkamera,...
  • WARUM IPAD AIR − Das iPad Air ist leistungsstark, vielseitig und in zwei Größen erhältlich. Es kommt...

Angebot
Apple MacBook Air (13", Apple M4 Chip mit 10‑Core CPU und 8‑Core GPU, 16GB Gemeinsamer Arbeitsspeicher, 256 GB)...
  • LEICHTGESCHWINDIGKEIT – Das MacBook Air mit dem M4 Chip macht Arbeit und Gaming superschnell. Mit Apple...

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

9 Kommentare

  1. Also nur über die API und nicht im normalen Plus Tarif verfügbar?

  2. Kann mir jemand erklären wie ein LLM 1 Millionen Token verarbeiten kann? Die Matrizen müssen doch riesig werden und Berechnungszeit ins unermessliche steigen.

    • Normale Transformer haben quadratische Komplexität (O(n²)), daher wären 1 Mio Tokens brutal teuer in Speicher & Rechenzeit. Neue Modelle wie GPT-4 Turbo umgehen das mit:
      Sparse oder lokale Attention (z. B. nur Nachbarn vergleichen)
      Segmentierung / Sliding Windows
      Memory-Mechanismen (z. B. Transformer-XL, RWKV)
      FlashAttention für schnelle GPU-Optimierung
      Damit bleibt der Speicherverbrauch handhabbar, und das Modell muss nicht wirklich eine 1 Mio × 1 Mio Attention-Matrix berechnen.

      • jop, da greifen zwei Grundgesetze der Informatik: it depends und it’s complicated 😀
        Danke für die Übersicht!

  3. Welches chat gpt KI-Modell bekannt man wenn man Apple Intelligenz am IPhone 16 nutzt?

  4. wenn wer bissi Zeit und Buntstifte bereit hat möge er bitte mal ein who is who malen. Also 4.1 ersetzt das nun 4.5? Und was ist mit o3 und o4? Das ist langsam noch weirder als die Apple Silicon M Namen

  5. Also über die Namensgebung sollte OpenAI nochmal nachdenken…
    Bin gespannt wie potent dann die Ergebnisse sind, wenn man das Kontextfenster nahezu ausreizt.. 1 Mio. Token sind schon eine Ansage.. Aber bei der Konkurrenz bedeutet das dann, wenn man in diese Bereiche kommt, dass mehr Halluzination als richtige Antworten dabei sind.
    Bin gespannt.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.