OpenAIs GPT-5.3 Codex udløser ‘høj’ cyberrisiko-advarsel — og adgangen strammes

februar 10, 2026
OpenAI’s GPT-5.3 Codex Triggers ‘High’ Cyber Risk Flag — and Access Is Tightening

San Francisco, 8. februar 2026, 22:29 PST

  • OpenAI lancerer GPT-5.3-Codex til betalende ChatGPT-kunder, men begrænser bredere tilgængelighed på grund af cybersikkerhedsrisici
  • Virksomheden tester et godkendt “Trusted Access for Cyber”-initiativ og stiller 10 millioner dollars i API-kreditter til rådighed for at støtte defensive indsatser
  • Denne lancering sker, mens konkurrenter som Anthropic integrerer agentiske kodningsværktøjer dybere i udvikleres arbejdsgange

OpenAI er begyndt at udrulle GPT-5.3-Codex, en ny “agentisk” kodningsmodel, der går videre end blot at skrive kode — den kan faktisk udføre opgaver på en computer. Samtidig styrker virksomheden sikkerhedsforanstaltningerne omkring sine mest følsomme cybersikkerhedsapplikationer.

Denne ændring er afgørende, efterhånden som AI-kodningsværktøjer udvikler sig fra simple autoudfyldningsfunktioner til systemer, der kan udføre kommandoer, hente data og håndtere længerevarende opgaver. Sådanne evner tiltaler softwareteams, der kæmper for at overholde deadlines—og angribere, der ønsker at fremskynde deres søgen efter sårbarheder.

OpenAIs position sender et klart signal til konkurrenterne. Virksomheden sigter mod at fremme kapabiliteter, samtidig med at den forhindrer udbredt automatiseret misbrug—en balance, der bliver sværere, efterhånden som modellerne får mere autonomi.

OpenAIs systemkort afslører, at GPT-5.3-Codex er den første udgivelse, der klassificeres som “Høj kapabilitet” inden for cybersikkerhed under virksomhedens Preparedness Framework. På trods af dette implementerer OpenAI ekstra sikkerhedsforanstaltninger og bemærker, at de endnu ikke har bekræftet, at modellen fuldt ud lever op til deres “Høje” standard. (OpenAI)

OpenAIs produktopdatering afslørede, at GPT-5.3-Codex opnåede nye benchmark-rekorder i virkelige kodnings- og computeropgaver med 56,8% på SWE-Bench Pro, 77,3% på Terminal-Bench 2.0 og 64,7% på OSWorld-Verified. Virksomheden bemærkede også, at tidlige versioner af modellen hjalp med at fejlfinde dens egne trænings- og implementeringsprocesser. (OpenAI)

OpenAI markedsfører modellen som mere end blot et udviklerværktøj. Ifølge eWeek er den rettet mod alt fra fejlfinding, implementering og overvågning til udarbejdelse af produktkravsdokumenter, udførelse af tests samt opbygning af præsentationer og regneark. Virksomheden understreger stærkere overvågning og adgangskontrol for at håndtere cybersikkerhedsopgaver sikkert.

OpenAIs “Trusted Access for Cyber”-side beskriver pilotprojektet som en identitets- og tillidsbaseret ramme, der skal sikre, at avancerede cyberværktøjer havner “i de rigtige hænder,” især efterhånden som modeller begynder at operere autonomt “i timer eller endda dage.” Virksomheden har også lovet 10 millioner dollars i API-kreditter for at accelerere defensiv forskning. (OpenAI)

OpenAI’s administrerende direktør Sam Altman annoncerede på X, at GPT-5.3-Codex er “vores første model, der opnår ‘høj’ for cybersikkerhed på vores beredskabsramme,” ifølge Fortune. Mediet bemærkede, at OpenAI ikke åbner for fuld API-adgang med det samme, hvilket begrænser automatisering i stor skala for højrisikotilfælde. I stedet begrænser de de mest følsomme funktioner gennem et betroet-adgangsprogram rettet mod godkendte sikkerhedseksperter. (Fortune)

Lanceringen optrapper kampen om agentisk kodning. TechCrunch afslørede, at OpenAI lancerede GPT-5.3-Codex blot få minutter efter, at Anthropic havde rullet deres egen model ud. Begge havde oprindeligt sigtet efter en samtidig lancering, men Anthropic fremskyndede processen med 15 minutter. (TechCrunch)

Men den virkelige udfordring ligger forude. Hvis sikkerhedsforanstaltningerne ikke er vandtætte—eller hvis funktioner slipper ud via indirekte metoder som værktøjskæder og automatisering—kan de systemer, der er designet til at identificere og rette fejl, i stedet fremskynde jagten på udnyttelige sårbarheder. OpenAI satser på, at strengere kontroller ikke vil få udviklere til at søge mod mindre restriktive konkurrenter.

OpenAI siger, at de vil udvide adgangen, når det kan gøres sikkert, men tidsplanen afhænger i høj grad af, hvordan disse nye kontroller fungerer i praksis, og hvor hurtigt brugerne presser på for automatisering ud over blot chatgrænsefladen.

How to Unlock OpenAI’s Most Powerful API Tools