OpenAI: ChatGPT erhält Zugriff auf neues o3-mini Modell
OpenAI-CEO Sam Altman hat angekündigt, dass das neue KI-Modell o3-mini bald auch in der kostenlosen Version von ChatGPT verfügbar sein wird. Plus-Nutzer sollen zudem umfangreichen Zugriff auf das Modell erhalten.
big news: the free tier of chatgpt is going to get o3-mini!
(and the plus tier will get tons of o3-mini usage)
— Sam Altman (@sama) January 23, 2025
o3-mini ist die kompaktere Variante des im Dezember 2024 vorgestellten o3-Modells, das sich durch verbesserte Reasoning-Fähigkeiten auszeichnet. Das Modell wurde speziell dafür entwickelt, bei komplexen Aufgaben in Wissenschaft, Programmierung und Mathematik bessere Ergebnisse zu liefern als seine Vorgänger.
Die Integration in ChatGPT markiert einen wichtigen Schritt für OpenAI, da o3 in Tests deutlich bessere Leistungen als das Vorgängermodell o1 zeigte – etwa bei der Lösung wissenschaftlicher Fragen und Software-Engineering-Aufgaben. Ein genaues Datum für die Einführung wurde noch nicht genannt.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Hilft auch nicht, wenn man sich auf die Ergebnisse nicht verlassen kann.
Immer wieder testen wir im Unternehmen verschiedenste KI-Einsätze und immer wieder kommen wir zum Ergebnis, dass halluziniert wird und Dinge unterschlagen werden. Gerade erst diese Woche wieder verschiedene Zusammenfassungen von Dokumenten getestet. Ergebnis: Es werden Dinge erfunden und ganze Punkte aus Dokumenten weggelassen. Wenn man alles kontrollieren soll, dann macht das Ganze keinen Sinn. Daher nutzen wir es derzeit ausschließlich im Bereich Bild- und Textgestaltung.
Welche Modelle hast du verwendet, die versagt haben?
Es darf kostenlos eine Software getestet werden, von der bereits jetzt klar ist, dass diese ein neues Zeitalter einläuten wird und die bereits extrem bemerkenswerte Resultate liefert – obwohl sie noch in den Kinderschuhen steckt.
Aber diverse Menschen sind komplett unbeeindruckt und beschweren sich über mangelhafte Qualität. Das macht mich ehrlich gesagt immer wieder fassungslos. Ich hätte es vor ein paar Jahren noch für unmöglich gehalten, dass es eine solche Software jemals geben wird.
Ich blick nicht mehr durch.
Die Verbesserung ist quasi nur für die free Variante?
Ich benutze in der bezahl Variante derzeit 4o, das ist dem 3o mini (nicht o3 mini, oder) überlegen, oder?
Es gibt auf 4o Mini zur Auswahl. Das ist vermutlich auch besser als o3 mini, oder?
GPT-4 ist die Basisversion. 4o die Verbesserung mit Multimodalunterstützung. o1 im Prinzip 4o mit integrierter Chain-of-Thought und o3 das verbesserte o1. 4o mini wird mit ziemlicher Sicherheit schlechter sein als 3o mini. Ob o3 mini oder o1 besser sind, wird sich noch zeigen. Das normale o3 ist das leistungsfähigste Model
Danke für den Überblick!
Das sehe ich auch so. 4O ist das täglich Brot und wenn das nicht reicht, ausweichen auf O1. Wenn die Tage O3 freigegeben wird, eben da drauf.
Die Mini Version sind jeweils nur abgespeckte Version, die Geld sparen und für einfache Aufgaben auch dicke ausreichen.
So langsam geht mir ChatGPT als zahlender Nutzer ziemlich auf die Nerven. Entweder werden Dinge vorgestellt, die erst deutlich später kommen, in Deutschland nicht nutzbar sind oder es werden Dinge vorgestellt, die dann die kostenlose Variante betreffen oder die Version für 200 USD monatlich betreffen.
Geht mir ähnlich. Das Ganze wirkt immer chaotischer, und 95 % der Zeit nutze ich das Standardmodell.
Es wäre eventuell sinnvoll, wenn automatisch ein passendes Modell ausgewählt bzw. gewechselt wird, falls ich Tasks erledigen, Code generieren oder Daten auswerten lassen möchte, usw.
Inzwischen gibt es ja auch Funktionen, die nur auf der Website funktionieren (z. B. Tasks bearbeiten, Canvas), nur in der macOS-App (z. B. Fragen zum Bildschirminhalt stellen, glaube ich?), in bestimmten Regionen oder für bestimmte Account-Typen. Wer sich nicht ständig damit beschäftigt, verliert schnell den Überblick.
RIchtig. Dass mit der automatischen Auswahl der richtigen Modells wünsche ich mir auch schon lange. Denn je nach Modell kommen dann antworten aus dem Web oder wirkliche Lösungen etc.
Ich nutze mittlerweile fast nur noch Claude. Da ist nur das Problem, dass unvermittelt und total random das Tool manchmal dicht macht und einen in eine mehrstündige Pause schickt. Das passiert, wenn man ein gewisses Limit erreicht und das auch in der kostenpflichtigen Version.
Bin ich der Einzige, der mittlerweile immer weniger durchblickt was nun wo in welchen Szenarien das sinnvollere oder gar „bessere“ Modell ist? Es ist zunehmend verwirrend.
Was auch daran liegt, dass fast alle großen AI-Anbieter, vor allem aber OpenAI, bei der Namensgebung kläglich versagen. Mag ja sein, dass 4o, o1, o3, o3-mini intern und vielleicht sogar auch noch für einige Poweruser/Enthusiasten sinnvoll sind, aber für Otto Normalverbraucher ist es eine Katastrophe.
Ne, geht mir als zahlender Kunde ebenfalls so. Ständig was neues und dies und das Feature aber irgendwie ist da nie was dabei für mich.
Ja, man muss sich täglich damit beschäftigen sonst fällt man ganz schnell raus – gefühlt gibt es ja im Stundentakt neue „Durchbrüche“ 🙂
Anyway, bzgl. Detail-Infos zu OpenAI-Modellen bitte hier entlang:
https://platform.openai.com/docs/models
Ich benutze täglich Microsoft Visual Code zusammen mit ChatGPT 4o, o1, o1 mini und sonnet 3.5.
wenn es darum geht alten php Code zu verbessern, ist hier sonnet 3.5 nach wie vor am besten, was nicht heißt dass es sehr gut ist. Leider werden bei allen der genannten LLM die Prompts nicht immer exakt umgesetzt. Manchmal erhält man für die gleichen Prompts, andere Antworten mit mal mehr, mal weniger Optimierungen.
Ich werde das o3 mini bald testen und hoffe, dass es zumindest gleich gut oder besser ist als sonnet 3.5.