San Francisco, 8. Februar 2026, 22:29 PST
- OpenAI veröffentlicht GPT-5.3-Codex für zahlende ChatGPT-Kunden, beschränkt jedoch die breitere Verfügbarkeit aufgrund von Cybersicherheitsrisiken
- Das Unternehmen testet eine geprüfte Initiative „Trusted Access for Cyber“ und stellt 10 Millionen US-Dollar in API-Guthaben zur Unterstützung von Abwehrmaßnahmen bereit
- Diese Einführung erfolgt, während Wettbewerber wie Anthropic agentenbasierte Codierungswerkzeuge stärker in Entwickler-Workflows integrieren
OpenAI hat mit der Einführung von GPT-5.3-Codex begonnen, einem neuen „agentenbasierten“ Codierungsmodell, das über das reine Schreiben von Code hinausgeht – es kann tatsächlich Aufgaben auf einem Computer ausführen. Gleichzeitig verstärkt das Unternehmen die Schutzmaßnahmen rund um seine sensibelsten Cybersicherheitsanwendungen.
Dieser Wandel ist entscheidend, da sich KI-Codierungswerkzeuge von einfachen Autovervollständigungsfunktionen zu Systemen entwickeln, die Befehle ausführen, Daten abrufen und längere Aufgaben bearbeiten können. Solche Fähigkeiten sprechen Softwareteams an, die unter Zeitdruck stehen – und Angreifer, die ihre Suche nach Schwachstellen beschleunigen wollen.
OpenAIs Position sendet eine klare Botschaft an die Konkurrenz. Das Unternehmen will die Fähigkeiten vorantreiben und gleichzeitig einen weit verbreiteten automatisierten Missbrauch verhindern – ein Gleichgewicht, das immer schwieriger wird, je mehr Autonomie die Modelle erhalten.
Die Systemkarte von OpenAI zeigt, dass GPT-5.3-Codex die erste Veröffentlichung ist, die im Rahmen des Preparedness Frameworks des Unternehmens als „High capability“ im Bereich Cybersicherheit eingestuft wird. Dennoch setzt OpenAI zusätzliche Schutzmaßnahmen um und weist darauf hin, dass das Modell den „High“-Standard noch nicht vollständig erfüllt. (OpenAI)
OpenAIs Produkt-Update zeigte, dass GPT-5.3-Codex neue Bestwerte bei realen Codierungs- und Computeraufgaben erreichte: 56,8 % bei SWE-Bench Pro, 77,3 % bei Terminal-Bench 2.0 und 64,7 % bei OSWorld-Verified. Das Unternehmen merkte auch an, dass frühe Versionen des Modells beim Debugging der eigenen Trainings- und Bereitstellungsprozesse halfen. (OpenAI)
OpenAI vermarktet das Modell als mehr als nur ein Entwicklerwerkzeug. Laut eWeek richtet es sich an alles von Debugging, Bereitstellung und Überwachung bis hin zum Entwurf von Produktanforderungsdokumenten, der Durchführung von Tests sowie dem Erstellen von Präsentationen und Tabellen. Das Unternehmen betont stärkere Überwachungs- und Zugriffskontrollen, um Cybersicherheitsaufgaben sicher zu bewältigen.
OpenAIs Seite „Trusted Access for Cyber“ beschreibt das Pilotprojekt als ein identitäts- und vertrauensbasiertes Rahmenwerk, das sicherstellen soll, dass erweiterte Cyber-Tools „in die richtigen Hände“ gelangen – insbesondere, da Modelle beginnen, autonom „über Stunden oder sogar Tage“ zu agieren. Das Unternehmen versprach außerdem 10 Millionen US-Dollar in API-Guthaben zur Beschleunigung der Abwehrforschung. (OpenAI)
OpenAI-CEO Sam Altman gab auf X bekannt, dass GPT-5.3-Codex laut Fortune „unser erstes Modell ist, das im Bereich Cybersicherheit in unserem Vorbereitungsrahmen die Stufe ‚hoch‘ erreicht“. Das Magazin merkte an, dass OpenAI nicht sofort den vollständigen API-Zugang öffnet und die Automatisierung im großen Maßstab für Hochrisikofälle einschränkt. Stattdessen werden die sensibelsten Funktionen über ein Trusted-Access-Programm bereitgestellt, das sich an geprüfte Sicherheitsexperten richtet. (Fortune)
Die Einführung verschärft den Wettstreit um agentenbasiertes Programmieren. TechCrunch berichtete, dass OpenAI GPT-5.3-Codex nur wenige Minuten nach der Veröffentlichung des eigenen Modells durch Anthropic herausbrachte. Beide hatten ursprünglich eine gleichzeitige Veröffentlichung geplant, aber Anthropic beschleunigte den Start um 15 Minuten. (TechCrunch)
Doch die eigentliche Herausforderung steht noch bevor. Wenn die Schutzmaßnahmen nicht lückenlos sind – oder wenn Fähigkeiten auf indirektem Weg wie über Toolchains und Automatisierung nach außen dringen – könnten die Systeme, die eigentlich dazu dienen, Fehler zu erkennen und zu beheben, stattdessen die Suche nach ausnutzbaren Schwachstellen beschleunigen. OpenAI setzt darauf, dass strengere Kontrollen Entwickler nicht dazu bringen, weniger eingeschränkte Wettbewerber zu suchen.
OpenAI sagt, dass der Zugang ausgeweitet wird, sobald dies sicher möglich ist, aber der Zeitplan hängt stark davon ab, wie sich diese neuen Kontrollen in der Praxis bewähren und wie schnell Nutzer nach Automatisierung über die Chat-Oberfläche hinaus verlangen.