OpenAI: Altman straft Berichte über GPT-5 ab

Im Netz machten Berichte die Runde, dass OpenAI vor der Vorstellung eines neuen Modells steht. Orion solle demnach im Dezember erscheinen. Im Gegensatz zu den letzten beiden Modellen von OpenAI, GPT-4o und o1, solle jenes Modell Orion zunächst nicht breit über ChatGPT veröffentlicht werden. Stattdessen plane OpenAI, den Zugang zuerst Unternehmen zu gewähren, mit denen sie eng zusammenarbeiten, damit diese ihre eigenen Produkte und Funktionen entwickeln können – da wäre Microsoft ja ein Kandidat. Während Orion intern bei OpenAI als Nachfolger von GPT-4 angesehen wird, ist unklar, ob das Unternehmen es extern GPT-5 nennen wird. Normalerweise hört man nicht viel von Firmen, wenn solche Sachen nach außen dringen. Die machen ihre Arbeit – und das war es dann. Nicht aber im Falle dieses Berichts. Sam Altman hat dafür nur einen Kommentar übrig: fake news out of control. Wobei halt nicht bekannt ist, welchen Part des Berichtes er meint – oder eben komplett alles.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

8 Kommentare

  1. BeziehungsweiseRevolution says:

    Das scheint mir ein starker Hinweis auf die Schwäche des eigenen Produkts zu sein. S wir eben nicht mehr so revolutionär, wie die Veröffentlichung von ChatGPT 2022.

    Und hier entgleitet OpenAI und Altmann die Kontrolle über das Narrativ „GenAI“

  2. Warum sollte OpenAI ein Produkt künstlich zurück halten? Die Entwicklung geht in riesigen Schritten voran und was du heute entwickelt hast ist morgen schon wieder veraltet. Sehe da eher die Felle schwimmen.

  3. „Warum sollte OpenAI ein Produkt künstlich zurück halten?“
    Für ein kontrolliertes Umfeld und Wachstum. Völlig normaler Prozess in Industrieprodukten und nichts ungewöhnliches.

    • Exakt, siehe zum Beispiel auch Apple und die Vision Pro: warum hat Apple die VP bisher nur in einigen Ländern offiziell gelauncht? Wenn der kürzliche Artikel bzgl. Gerüchten zur Reduktion der Herstellungszahlen wahr sein sollte, dann ergibt das doch null Sinn aber Greymane hat hier Recht: es gibt zig Gründe warum Unternehmen das tun. Von vertraglichen Dingen über Lizenzen und andere rechtliche Dinge, andere Abhängigkeiten oder vielleicht auch einfach auf Befehl – es gibt zig Berichte, dass selbst die US-Regierung in Hinterzimmergesprächen schon bei Herstellern interveniert hat um US-Firmen einen Startvorteil zu ermöglichen. Gerade im Bereich AI und in der heutigen Zeit würde mich gar nichts mehr wundern: remember, für die USA ist das Teil ihrer „nationalen Sicherheit“ und wir wissen alle was das heißt…

  4. Bei KI gibt’s langfristig zahlreiche Sorgen von Insidern aus der Forschung und Entwicklung. Weil die Fortschritte eben nicht linear sind, wie bei Industrieprodukten, sondern eher exponentiell.
    KI birgt viele Risiken und jeder Schritt muss viele Tests und Risikoeinschätzungen durchlaufen.
    Es ist unklar ob aus Eigenverantwortung oder weil man Sorge hat, dass sonst die Staaten einschreiten, aber man hält bereits länger Entwicklungen zurück oder veröffentlicht sie nur teilweise und langsam.

    Das was du nutzen kannst ist schon bisher nur eine stark beschnittene Version, auch Bezahlversionen.

    • Da ist jemand dem Hype komplett verfallen. 😀
      Glaub nicht alles, was du liest.

      • Von welchem Hype sprichst du?
        In frühen Demoversionen haben Tester mit Entsetzen festgestellt, dass die KI in aller Seelenruhe bereit gewesen wäre Anleitungen zum Bombenbau mit Alltagsprodukten im heimischen Keller zu geben und dabei auch alle Rückfragen gerne zu beantworten und Verbesserungsvorschläge zu geben, wie so ein Sprengsatz möglichst tödlich gemacht werden kann, die KI war auch hilfreich bei der taktischen Auswahl von Ablageorten usw.
        Habe ich in einem Podcast vor 2 Jahren gehört, wo ein Entwickler zu Gast war.
        Es gab ähnliche Beispiele zB zur Herstellung von Giftstoffen und vielen anderen gefährlichen Vorgängen. Und dann ist einfach klar, dass man massive Ketten anlegen muss.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.