OpenAI acaba de ampliar su programa Trusted Access for Cyber y deja entrar a miles de desarrolladores verificados a un modelo pensado para ciberseguridad defensiva. El movimiento llega justo cuando Anthropic hace lo contrario con Mythos.
La jugada confirma un choque de estrategias en el mercado de la IA para ciberseguridad. Mientras una compañía cierra el grifo, la otra abre la puerta a cualquier profesional que pueda verificar su identidad y demostrar que trabaja protegiendo software crítico.

Qué trae GPT-5.4-Cyber y por qué importa en ciberseguridad
El nuevo modelo se llama GPT-5.4-Cyber y es una variante del GPT-5.4 estándar, afinada específicamente para tareas defensivas. No es un lanzamiento masivo. OpenAI lo está desplegando de forma limitada e iterativa entre proveedores de seguridad, organizaciones seleccionadas e investigadores que ya estaban dentro del programa TAC.
Lo interesante no es tanto el modelo en sí como el enfoque detrás. OpenAI ha reducido los filtros de rechazo para usuarios de confianza, algo que suena obvio pero que hasta ahora frenaba mucho trabajo legítimo.
A largo plazo, para garantizar la suficiencia continua de la seguridad de la IA en ciberseguridad, la empresa también prevé la necesidad de defensas más amplias para los modelos futuros, cuyas capacidades superarán rápidamente incluso a los mejores modelos diseñados específicamente para este fin en la actualidad.
Cualquiera que haya intentado usar un modelo generalista para auditar binarios sabe de qué hablamos. Los rechazos automáticos convierten tareas normales en una batalla absurda contra el propio asistente.
Ingeniería inversa y análisis de binarios sin pelear con el modelo
Aquí está el punto fuerte del anuncio, GPT-5.4-Cyber incorpora capacidades avanzadas de ingeniería inversa binaria, lo que permite inspeccionar software compilado sin disponer del código fuente.
Eso abre la puerta a detectar malware, localizar vulnerabilidades y analizar muestras sospechosas con un asistente que no se bloquea a mitad del proceso. Es algo que los equipos de seguridad llevaban tiempo pidiendo en foros y canales técnicos.
El modelo sigue siendo restrictivo para cualquier uso ofensivo evidente. La diferencia está en que reconoce al profesional defensivo y adapta la respuesta, en lugar de aplicar el mismo filtro que usaría con un usuario anónimo.
Cómo entrar en el programa TAC
El acceso funciona por niveles, los desarrolladores individuales pueden verificar su identidad en chatgpt.com/cyber, mientras que las empresas tienen que solicitar acceso a través de su representante comercial de OpenAI.
Quienes ya formaban parte de TAC pueden autenticarse como defensores cibernéticos legítimos y desbloquear niveles adicionales, incluido el acceso a GPT-5.4-Cyber. No es un proceso instantáneo, pero sí bastante más ágil que los antiguos programas cerrados.
La otra pieza que completa el movimiento es el programa de subvenciones de 10 millones de dólares que OpenAI lanzó a principios de 2026. Ha llegado ya a más de 1.000 proyectos de código abierto y, según la compañía, ha contribuido a resolver más de 3.000 vulnerabilidades críticas o de alta gravedad.
El contraste con Anthropic es evidente y marca dos filosofías opuestas sobre cómo debe integrarse la inteligencia artificial en la seguridad del software. OpenAI apuesta por escala y verificación. Anthropic, por control y acceso selectivo. El tiempo dirá cuál modelo resiste mejor cuando las amenazas impulsadas por IA empiecen a aparecer en volumen.

Comentarios!