San Francisco, 8 de febrero de 2026, 22:29 PST
- OpenAI está lanzando GPT-5.3-Codex para los clientes de pago de ChatGPT, pero restringiendo su disponibilidad más amplia debido a riesgos de ciberseguridad
- La empresa está probando una iniciativa revisada llamada “Acceso Confiable para Ciberseguridad” y proporcionando $10 millones en créditos de API para apoyar esfuerzos defensivos
- Este lanzamiento llega mientras competidores como Anthropic están integrando herramientas de codificación agentica más profundamente en los flujos de trabajo de los desarrolladores
OpenAI ha comenzado a implementar GPT-5.3-Codex, un nuevo modelo de codificación “agéntico” que va más allá de solo escribir código: realmente puede realizar tareas en una computadora. Al mismo tiempo, la empresa está reforzando las medidas de seguridad en torno a sus aplicaciones de ciberseguridad más sensibles.
Este cambio es fundamental a medida que las herramientas de codificación con IA evolucionan más allá de simples funciones de autocompletado hacia sistemas capaces de ejecutar comandos, recuperar datos y manejar tareas extendidas. Tales capacidades atraen a equipos de software que corren para cumplir plazos—y a atacantes ansiosos por acelerar su búsqueda de vulnerabilidades.
La postura de OpenAI envía un mensaje claro a sus competidores. La empresa busca avanzar en capacidades mientras previene el abuso automatizado generalizado—un equilibrio que se vuelve más difícil a medida que los modelos ganan más autonomía.
La tarjeta de sistema de OpenAI revela que GPT-5.3-Codex es su primer lanzamiento clasificado como de “Alta capacidad” en ciberseguridad bajo el Marco de Preparación de la empresa. A pesar de esto, OpenAI está implementando salvaguardas adicionales, señalando que aún no ha confirmado que el modelo cumpla completamente con su estándar de “Alta” capacidad. (OpenAI)
La actualización de producto de OpenAI reveló que GPT-5.3-Codex alcanzó nuevos máximos de referencia en tareas de codificación y computación del mundo real, obteniendo un 56.8% en SWE-Bench Pro, 77.3% en Terminal-Bench 2.0 y 64.7% en OSWorld-Verified. La empresa también señaló que las primeras versiones del modelo ayudaron a depurar sus propios procesos de entrenamiento y despliegue. (OpenAI)
OpenAI está promocionando el modelo como algo más que una herramienta para desarrolladores. Según eWeek, está dirigido a todo, desde depuración, despliegue y monitoreo hasta la redacción de documentos de requisitos de producto, ejecución de pruebas y creación de presentaciones y hojas de cálculo. La empresa enfatiza un monitoreo más fuerte y controles de acceso para manejar tareas de ciberseguridad de manera segura.
La página “Acceso Confiable para Ciberseguridad” de OpenAI describe el piloto como un marco basado en la identidad y la confianza, diseñado para asegurar que las herramientas cibernéticas mejoradas terminen “en las manos correctas”, especialmente a medida que los modelos comienzan a operar de forma autónoma “durante horas o incluso días”. La empresa también prometió $10 millones en créditos de API para acelerar la investigación defensiva. (OpenAI)
El CEO de OpenAI, Sam Altman, anunció en X que GPT-5.3-Codex es “nuestro primer modelo que alcanza un nivel ‘alto’ en ciberseguridad según nuestro marco de preparación”, según Fortune. El medio señaló que OpenAI no abrirá el acceso completo a la API de inmediato, limitando la automatización a gran escala en casos de alto riesgo. En su lugar, están restringiendo las funciones más sensibles a través de un programa de acceso confiable dirigido a expertos en seguridad verificados. (Fortune)
El lanzamiento intensifica la batalla por la codificación agente. TechCrunch reveló que OpenAI lanzó GPT-5.3-Codex apenas unos minutos después de que Anthropic presentara su propio modelo. Ambos originalmente planeaban un lanzamiento simultáneo, pero Anthropic aceleró las cosas por 15 minutos. (TechCrunch)
Pero el verdadero desafío está por venir. Si las salvaguardas no son herméticas—o si las capacidades se filtran por medios indirectos como cadenas de herramientas y automatización—los mismos sistemas diseñados para identificar y corregir errores podrían, en cambio, acelerar la búsqueda de vulnerabilidades explotables. OpenAI apuesta a que los controles más estrictos no llevarán a los desarrolladores a buscar competidores menos restringidos.
OpenAI dice que ampliará el acceso cuando pueda hacerse de forma segura, pero el cronograma depende en gran medida de cómo funcionen estos nuevos controles en la práctica y de cuán rápido los usuarios presionen por una automatización más allá de la simple interfaz de chat.