OpenAI kündigt o3-Modellreihe an
OpenAI hat die KI-Welt erneut aufhorchen lassen: Mit der Vorstellung der Modelle o3 und o3-mini stehen Nachfolger der kürzlich veröffentlichten o1-Serie in den Startlöchern. Dabei besonders spannend: Die o3-Modelle übertreffen ihren Vorgänger in der Programmierung deutlich und lösen selbst komplexe mathematische Aufgaben mit Bravour.
Laut OpenAI erzielt o3 sogar ein Codeforces-Rating von 2727 und übertreffe somit den Chief Scientist von OpenAI selbst. Aber auch in anderen Disziplinen wie Mathematik und Problemlösung setze o3 neue Maßstäbe. Aktuell werden ausgewählte Forscher eingeladen, die Modelle auf Herz und Nieren zu prüfen. Der Fokus liegt dabei auf der Sicherheit und der Anwendung ethischer Grundsätze.
Wer Interesse hat, kann sich bis zum 10. Januar 2025 für einen frühen Zugang bewerben. Ob o3 und o3-mini wirklich halten, was sie versprechen, wird sich zeigen. Die ersten Benchmarks sind aber vielversprechend und deuten auf einen Quantensprung in der KI-Entwicklung hin. Und der Name? Damit es keine Verwechslung mit dem Telekommunikationsanbieter O2 gibt, entschied man sich für o3.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Mal sehen was da dran is…
Klingt stark nach marketing
Bisher is chatgpt nich so wirklich zum programmieren zu gebrauchen finde ich.
Auch das o1 Modell nich.
Was würdest du denn empfehlen?
Ein Quantensprung ist der kleinstmögliche Sprung, der möglich ist. Gemeint ist aber etwas ganz anderes.
Ja, aber ja. Als Quantensprung bezeichnet man in der Alltagssprache einen Fortschritt, der innerhalb kürzester Zeit eine Entwicklung einen sehr großen Schritt voranbringt. Entstanden ist der Begriff in der stürmischen Entwicklung der älteren Quantenphysik nach 1910.
Er ändert den Zustand des Teilchens aber fundamental, von daher ist die Analogie schon gegeben
ARC AGI pub über 85%?!? Einige Experten sagen, das ist jetzt AGI.
@Caschy, wie siehst Du das?
Selbst, wenn das noch nicht AGI wäre, wenn das Complex Coding in so großen Schritten besser wird, wie vielleicht Jahre oder sogar Monate brauchen wir dann noch bis AGI? Und das sind nur die Public Models…
„Tatsächlich scheitere o3 immer noch an einigen sehr einfachen Aufgaben, was auf **grundlegende Unterschiede zur menschlichen Intelligenz** hinweise, heißt es in einem Beitrag des Arc Prize.“
Das ist der Knackpunkt und der Grund warum wir noch meilenweit von einer AGI entfernt sind. Wenn man es auf das EVA-Prinzip unterbricht (Eingabe-Verarbeitung-Ausgabe) dann haben wir momentan gerade mal ein rudimentäres Text-Verständnis, etwas „Vision“, einen riesigen Speicher & Prozessor und einige generative Ausgabe-Methoden. Alles schon sehr beeindruckend und durch die Fortschritte wird die Entwicklung ständig an Geschwindigkeit gewinnen aber solange nicht z.B. alle „menschlichen Sensoren“ verfügbar sind, wird es kein vergleichbares Verständnis der Welt geben können.
Und das schliesst so einfache Dinge wie physikalisches Verständnis mit ein, aber natürlich auch der ganze Bereich der Emotionen oder gar soziale Intelligenz. Ich glaube, dass hier AGI erst erreicht werden kann wenn eine KI sich mit einem Körper in der Realität bewegt und dadurch all das lernen kann was eben nicht irgendwo „geschrieben“ steht.
Es bleiben also noch so einige Baustellen aber die derzeitige Geschwindigkeit in einigen Bereichen ist schon ein wenig besorgniserregend. Und ich meine nicht die Technologie an sich, da mach ich mir keine Sorgen – aber die Menschen, die sie in Händen halten werden, machen mir Sorgen…
Warum sollte eine AGI wie ein Mensch agieren? und warum sollte sie so lernen müssen? das halte ich für einen sehr großen Irrtum. Und selbst wenn: Genügend Autos haben doch schon LIDAR und Kamera. Was braucht es da mehr zur Beobachtung?
Ich finde den Link zu dem Experiment nicht mehr: ChatGPT unterhält sich mit Gemini oder so ähnlich. Irgendwann haben die beiden einfach eine neue Sprache entwickelt. Wenn man in einem Stadium des exponentiellen Lernens ist, ist der Rest nur Peanuts. Warum brauche ich Bilder um Physik zu verstehen, wenn das mit den Formeln viel einfacher geht?!
Jesus, vielleicht erstmal die Definition von AGI lesen: „…jede intellektuelle Aufgabe zu verstehen oder zu lernen, die **ein Mensch** ausführen kann“.
Erst wenn eine Maschine die Welt so wahrnehmen kann wie ein Mensch (also mit allen menschlichen Sinnen), wird sie den Intellekt des Menschen komplett verstehen und nachahmen können.
Und übrigens lernt „die AI“ in der Regel keine Formeln auswendig und wendet die dann an. Nein, sie lernt durch Training und wir wissen ja: es gehen so langsam die Daten dafür aus.
Ergo müssen diese Daten also erst generiert werden und daher mein Einwand: erst wenn diese Daten dadurch generiert werden indem eine KI sich in einem Körper in der Welt bewegen kann, wird es genügend Daten für das weitere exponentielle Erlernen der menschlichen Sinne geben.
An den Punkten maximaler Verzweifelung im Ikea-Labyrinth werden 100er-Packs von Teelichtern platziert. Das ist jetzt nur noch zur Optimierung.