Mehr als Autocomplete: OpenAI rüstet Codex zum autonomen Programmier-Partner auf

OpenAI treibt die Entwicklung von KI-Tools für Entwickler mit einem umfassenden Update für Codex voran. Mit dem neuen GPT-5-Codex soll die KI vom einfachen Assistenten zum eigenständigen Teammitglied aufsteigen. Das Wichtigste hierbei sei laut der Entwickler das speziell für Softwareentwicklung optimierte GPT-5-Codex. Anders als das Allzweckmodell GPT-5 wurde es nämlich darauf trainiert, wie ein menschlicher Entwickler zu agieren: Es analysiert den gesamten Code-Kontext, versteht Projektabhängigkeiten und kann sogar Tests zur Validierung seiner Vorschläge ausführen.
Hinzu kommt die Fähigkeit zur dynamischen Anpassung. Bei einfachen Aufgaben bekommt man schnelle Antworten, bei komplexen Projekten wie „Code-Refactoring“ arbeitet es autonom, in Tests angeblich sogar stundenlang. Diese Funktionen stehen direkt in der gewohnten Entwicklungsumgebung zur Verfügung, sowohl über das überarbeitete CLI-Tool oder eine neue VS Code-Erweiterung.
- Code-Reviews: Codex kann als automatischer Reviewer für GitHub Pull Requests agieren und gleicht dabei die beschriebene Absicht mit der tatsächlichen Implementierung ab. Das Ergebnis sind laut OpenAI relevantere Anmerkungen mit Fokus auf kritische Fehler.
- Frontend-Entwicklung: Das System verarbeitet jetzt auch visuelle Vorlagen. Entwickler können Screenshots oder Wireframes bereitstellen, die Codex als Vorlage für Benutzeroberflächen nutzt. Während der Arbeit kann das Tool sogar selbst Screenshots seines Fortschritts zur Überprüfung anfertigen.
Aber auch die Plattform wurde wohl überarbeitet: Alle Dienste werden unter dem ChatGPT-Konto gebündelt, sodass der Kontext zwischen lokaler Entwicklungsumgebung, Cloud und GitHub erhalten bleibt. Die optimierte Cloud-Infrastruktur verkürzt Ausführungszeiten wohl um bis zu 90 Prozent. Eine standardmäßig aktivierte Sandbox-Umgebung verspricht Sicherheit. Codex ist in allen bestehenden ChatGPT-Plänen (Plus, Pro, Business, Edu, Enterprise) enthalten.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Da mussten sie ja auch nachlegen, nachdem andere teilweise kostenlos schon deutlich mehr konnten. Ich habe in den letzten Tagen mal mit gemini-cli herumgespielt und 2 Beispiel-Webapps sowie ein >60kb Powershell-Script damit „entwickelt“. Das legt mir auf Wunsch ein komplettes Projekt in Docker an, baut die Anwendung, startet den/die Container, liest das log, debuggt… man muss lernen, wie man die Eigenheiten und Einschränkungen umschifft, dann kann man quasi nebenbei kleinere Softwareprojekte hinr*tzen. Die Codequalität der so von mir produzierten Sachen ist, äh, gut, dass da nicht mein Name drauf steht. Aber bei Sachen, wo es nur darauf an kommt, dass es ‚meistens funktioniert‘ und keinerlei Sicherheitsanforderungen bestehen, kann man das schon gut nutzen.
Ich traue mich nur noch nicht, gemini-cli mit mcp allmächtig auf meinem Rechner zu machen, damit es meinen Job erledigt, weil ich weiß, dass ich dann bald rausfliege. Abwarten… 😀
Wirst du nicht.
KI ist ja ein Marketingbegriff (der LLM Forschung vor Jahrzehnten, um mehr Fördergelder zu bekommen weil’s so besser klingt).
Sie sind nicht intelligent, sie können nur aus mehr Trainingsdaten als du auswendig lernen kannst Paraphrasen generieren. Das müssen sie auch um das Urheberrecht nicht zu verletzen.
Sie können aber nur paraphrasieren und neu zusammen stellen was schon existiert.
Das machen zwar viele Arbeitnehmer aur Einstiegslevel auch, sie halluzinieren aber nicht dermaßen willkürlich, sondern bitten Kollegen um Hilfe usw. Die LLMs sind Dilettanten die alles ein bisschen können, aber nichts zuverlässig und das gekonnt überspielen.
Und bei komplexen Aufgaben ist es aufwändiger alles nochmal nachzuprüfen als es gleich selbst zu machen.
Sie sind ein Tool und werden darin hoffentlich auch weiterhin besser. Keinesfalls werden die feuchten Träume der techbros war, von einer Superintelligenz oder Ersatz des Menschen.
Das Problem wird höchstens irgendwann sein, dass die Produktionen der Systeme irgendwann so aufwändig sind, dass Menschen sie nur noch mit unverhältnismäßigem Aufwand überprüfen können.
Eine Software kann keine Verantwortung übernehmen und auch im Problemfall nicht zur Haftung herangezogen oder gar vor Gericht gestellt werden. Das heißt es muss immer einen Menschen in Verantwortung geben und wer nicht wahnsinnig ist wird nur dann zB die Konstruktion eines neuen Flugzeuges absegnen wenn er sie bis zur letzten Schraube überprüft hat, nur dann eine neue Website die Kundendaten erhebt online gehen lassen, usw.
Ich denke beruflich werden die am ehesten einen Vorteil ziehen die es schaffen die sog. KI so einzusetzen, dass sie mehr Arbeit spart als neu erzeugt.