OpenAI o1 prüft sich selbst besser
OpenAI hat das neue Sprachmodell o1 vorgestellt. Warum das Ganze? o1 denkt nach, bevor es antwortet – es kann eine lange interne Gedankenkette produzieren, bevor es dem Benutzer antwortet. Laut OpenAI sind derzeit zwei Versionen verfügbar: o1-preview und o1 mini, beide in Form eines Chatbots und über die OpenAI-API. Im Gegensatz zu ChatGPT kann o1 weder im Internet surfen noch Dateien analysieren. Laut OpenAI vermeidet o1 einige der typischen Denkfehler, die generative KI-Modelle oft haben.
Dies liegt daran, dass o1 in der Lage ist, sich selbst zu überprüfen, indem es mehr Zeit damit verbringt, alle Teile eines Befehls oder einer Frage zu betrachten. Das neue Modell lernt, seine Fehler zu erkennen und zu korrigieren. Es lernt, knifflige Schritte in einfachere zu unterteilen. Es versucht, einen anderen Ansatz zu checken, wenn der aktuelle nicht funktioniert. Dieser Prozess verbessert die Fähigkeit des Modells, zu schlussfolgern, erheblich. Technische Hintergründe erfahrt ihr hier.
ChatGPT-Plus- und Team-Benutzer erhalten ab heute Zugriff auf o1-preview und o1-mini, während Enterprise- und Edu-Benutzer Anfang nächster Woche Zugriff erhalten. OpenAI plant, allen kostenlosen Benutzern von ChatGPT Zugriff auf o1-mini zu gewähren, hat aber noch kein Veröffentlichungsdatum festgelegt.
- WARUM APPLE WATCH SERIES 10 – Größeres Display mit bis zu 30 Prozent mehr Display¬bereich.* Ein...
- ÜBERARBEITET FÜR MEHR TRAGEKOMFORT – Die AirPods 4 wurden überarbeitet, für außergewöhnlichen...
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Lohnt es sich im Vergleich zum kostenlosen Modell?
„OpenAI plant, allen kostenlosen Benutzern von ChatGPT Zugriff auf o1-mini zu gewähren“
Warte doch einfach!
Es ist seit heute verfügbar, woher sollen also unabhängige Test Berichte kommen?
Und die Einschränkungen hast du gelesen?
Also wer soll sagen, ob es sich für dich „rechnet“?
Ich bin begeistert von dem ersten Eindruck, es geht in Richtung Rechenpower zur Inferenz statt Training. Allerdings sollte man im Blick haben, dass es Limits gibt von 30 Abfragen pro Woche (Mini 50). Mini ist deutlich besser im Coding als Preview.
„Es versucht, einen anderen Ansatz zu checken, wenn der aktuelle nicht funktioniert.“ – Genau das kann doch kein LLM technisch ohne menschliches Eingreifen erreichen.
Ich finde die Aussagen, die „Gedanken“ enthalten in Werbungen immer sehr Problematisch.
Das ist ein Computerprogramm, es denkt nicht, sondern folgt einer Programmierung und bildet Vektoren.
Und wie, meinst du, denkt dein Gehirn? Mit Magie? Versuch mal darüber nachzudenken.
Es gibt noch keine K“I“. Und immer dringender scheint es, dass die natürliche Intelligenz zu sehr vernachlässigt und reglementiert wird.
Also dafür, dass es so gehypet wurde ist das dann doch echt relativ mau…
Ich finde man sieht hier so richtig, wie die Grenzen in der aktuellen LLM erstmal erreicht sind
Dann ruf schnell bei OpenAI an und sag denen kurz Bescheid, damit die mit LLMs nicht länger ihre Zeit vergeuden.
Ich war eigentlich der Meinung, die Kombination von Reinforcement Learning und LLMs wäre ein ganz neuer Ansatz, weil das Model nun über seine Aktionen reflektieren kann. Dass das ein großer Schritt Richtung AGI ist. Danke, dass du mir die Augen geöffnet hast.
Du glaubst doch nicht etwa, dass das nicht schon vor Monaten andere probiert haben und die Grenzen davon entdeckt haben 😀
Vor allem nach ein paar Tagen Nutzung wirkt das Ganze für mich eher wie ein Marketing Fake als alles andere… Klar ist er stark bei Rätsel, die man online findet.. ich werde aber das Gefühl nicht los, dass diese Rätsel samt Antworten einfach in den Trainingsdaten drin waren und er es einfach nur blind runterrattert, was die passende Antwort zum Rätsel ist. Das merkt man vor allem wenn man eigene Rätsel stellt.. er scheitert schon an sowas wie „Hallo, Ich bin Peter. Beantworte mir folgende Frage: Was ist Michaels Name?“
Von etwas komplexeren Zusammenhängen ganz zu schweigen. Im Coding ist das Ding ganz gut, da kann man nix sagen.
Die versprochene Revolution ist es nicht. Aber wie man jetzt schon überall liest ist auf einmal wie aus Zauberhand die Qualität der GPT-4 Modelle schlechter geworden..
OpenAI braucht gerade dringend Geld. Sonst fährt der ganze Laden gegen die Wand, weil das ganze Thema einfach noch überhaupt nicht wirtschaftlich ist. Da kann man natürlich super easy 2k$ für das neue super duper Premium Abo verlangen, wenn das Modell „Reasoning“ kann. Aber dieses Reasoning sehe ich ehrlich gesagt überhaupt nicht, wenn die Fragen von Themen abweichen die nicht sowieso schon mit Lösung im Internet und dann wohl auch in den Trainingsdaten stehen 😉 Aber so catcht man halt Leute, die das ganze nur halbherzig ausprobieren und halbherzig verstehen.
Lasst euch doch bitte nicht so blenden.
Und bitte bitte kommt mir nicht mit „AbEr BeNChMArKS“ .. Für die allermeisten Benchmarks gilt genau das gleiche wie für die Rätsel. Man kann auch LLMs super darauf vorbereiten explizit in diesen Benchmarks gut abzuschneiden.