San Francisco, 8 lutego 2026, 22:29 PST
- OpenAI udostępnia GPT-5.3-Codex płacącym klientom ChatGPT, ale ogranicza szerszą dostępność ze względu na ryzyko cyberbezpieczeństwa
- Firma testuje zweryfikowaną inicjatywę „Trusted Access for Cyber” i przekazuje 10 milionów dolarów w kredytach API na wsparcie działań obronnych
- Premiera następuje, gdy konkurenci tacy jak Anthropic coraz głębiej integrują agentowe narzędzia programistyczne z przepływami pracy deweloperów
OpenAI rozpoczęło wdrażanie GPT-5.3-Codex, nowego „agentowego” modelu kodowania, który wykracza poza samo pisanie kodu — potrafi faktycznie wykonywać zadania na komputerze. Jednocześnie firma wzmacnia zabezpieczenia wokół swoich najbardziej wrażliwych zastosowań w cyberbezpieczeństwie.
Ta zmiana jest kluczowa, ponieważ narzędzia AI do kodowania ewoluują z prostych funkcji autouzupełniania do systemów zdolnych do wykonywania poleceń, pobierania danych i obsługi złożonych zadań. Takie możliwości przyciągają zespoły programistyczne ścigające się z terminami — i atakujących, którzy chcą szybciej znajdować luki.
Stanowisko OpenAI wysyła jasny sygnał do konkurencji. Firma dąży do rozwoju możliwości, jednocześnie zapobiegając powszechnemu zautomatyzowanemu nadużyciu — równowaga ta staje się coraz trudniejsza do utrzymania, gdy modele zyskują większą autonomię.
Karta systemowa OpenAI ujawnia, że GPT-5.3-Codex to pierwsze wydanie firmy sklasyfikowane jako „Wysoka zdolność” w zakresie cyberbezpieczeństwa według firmowego Preparedness Framework. Mimo to OpenAI wdraża dodatkowe zabezpieczenia, zaznaczając, że nie potwierdzono jeszcze, iż model w pełni spełnia ich standard „Wysoki”. (OpenAI)
Aktualizacja produktowa OpenAI ujawniła, że GPT-5.3-Codex osiągnął nowe rekordy w rzeczywistych zadaniach programistycznych i komputerowych, uzyskując 56,8% na SWE-Bench Pro, 77,3% na Terminal-Bench 2.0 i 64,7% na OSWorld-Verified. Firma zauważyła również, że wczesne wersje modelu pomagały w debugowaniu własnych procesów szkoleniowych i wdrożeniowych. (OpenAI)
OpenAI promuje model jako coś więcej niż tylko narzędzie dla programistów. Według eWeek, jest on przeznaczony do wszystkiego — od debugowania, wdrażania i monitorowania, po tworzenie dokumentów wymagań produktowych, wykonywanie testów oraz budowanie prezentacji i arkuszy kalkulacyjnych. Firma podkreśla silniejsze monitorowanie i kontrolę dostępu, aby bezpiecznie obsługiwać zadania związane z cyberbezpieczeństwem.
Strona OpenAI „Trusted Access for Cyber” opisuje pilotaż jako oparty na tożsamości i zaufaniu framework, mający zapewnić, że zaawansowane narzędzia cybernetyczne trafią „we właściwe ręce”, zwłaszcza gdy modele zaczynają działać autonomicznie „przez godziny, a nawet dni”. Firma zadeklarowała także 10 milionów dolarów w kredytach API na przyspieszenie badań obronnych. (OpenAI)
CEO OpenAI Sam Altman ogłosił na X, że GPT-5.3-Codex to „nasz pierwszy model, który osiąga poziom ‘wysoki’ w zakresie cyberbezpieczeństwa według naszej ramy przygotowania”, według Fortune. Portal zauważył, że OpenAI nie udostępnia od razu pełnego dostępu do API, ograniczając automatyzację na dużą skalę w przypadkach wysokiego ryzyka. Zamiast tego ograniczają najbardziej wrażliwe funkcje poprzez program zaufanego dostępu skierowany do zweryfikowanych ekspertów ds. bezpieczeństwa. (Fortune)
Wprowadzenie modelu zaostrza walkę o agentowe kodowanie. TechCrunch ujawnił, że OpenAI wypuściło GPT-5.3-Codex zaledwie kilka minut po tym, jak Anthropic zaprezentował swój własny model. Obie firmy pierwotnie planowały jednoczesną premierę, ale Anthropic przyspieszył ją o 15 minut. (TechCrunch)
Prawdziwe wyzwanie dopiero przed nami. Jeśli zabezpieczenia nie będą szczelne — lub jeśli możliwości wyciekną pośrednio, np. przez łańcuchy narzędzi i automatyzację — same systemy stworzone do wykrywania i łatania błędów mogą przyspieszyć poszukiwanie podatności do wykorzystania. OpenAI liczy na to, że surowsze kontrole nie skłonią deweloperów do szukania mniej ograniczonych konkurentów.
OpenAI twierdzi, że rozszerzy dostęp, gdy będzie to możliwe bezpiecznie, ale harmonogram zależy w dużej mierze od tego, jak nowe zabezpieczenia sprawdzą się w praktyce i jak szybko użytkownicy będą naciskać na automatyzację wykraczającą poza sam interfejs czatu.