OpenAI desarrolló un modelo de inteligencia artificial (IA) tan riesgoso como Mythos de Anthropic, de acuerdo con el Instituto de Seguridad de la Inteligencia Artificial del Reino Unido (AISI, por sus siglas en inglés). La dependencia sostiene que GPT-5.5 Cyber es el segundo sistema capaz de resolver, de forma casi autónoma y de principio a fin, una simulación de ciberataques compuesta por múltiples etapas.
El sistema de OpenAI fue sometido a una serie de 95 tareas cibernéticas tipo Capture The Flag (CTF), organizadas en cuatro niveles de dificultad. Estas pruebas evalúan la capacidad de la IA para resolver desafíos específicos en áreas como ingeniería inversa, explotación de vulnerabilidades web y criptografía.
En febrero de este año, algunos algoritmos de vanguardia, disponibles en ese momento, fueron expuestos al nivel más básico de la prueba, alcanzando sin dificultad un rendimiento máximo mediante la resolución de tareas de pocos pasos y en entornos con limitada necesidad de búsqueda adicional de información.
No obstante, tanto Mythos como GPT-5.5 Cyber destacaron en las evaluaciones más avanzadas de la suite, la cual fue diseñada en colaboración con empresas como Irregular y Crystal Peak. Estas pruebas contemplan escenarios más complejos y cercanos a condiciones reales, incluyendo explotación de desbordamientos de memoria, ataques criptográficos sofisticados y análisis de firmware sin acceso al código fuente.
En este contexto de mayor exigencia, GPT-5.5 registró una tasa de éxito promedio de 71.4% en tareas de nivel experto, superando ligeramente el 68.6% alcanzado por Mythos Preview. Las mejoras resultan aún más evidentes al compararlo con modelos de generaciones previas, como GPT-5.4, que obtuvo 52.4%, y Opus 4.7, que alcanzó 48.6%. El informe sugiere que estos resultados confirman un avance significativo en capacidades cibernéticas de alto nivel.
Esta hipótesis cobró mayor relevancia a partir de una serie de evaluaciones realizadas en un entorno conocido como “The Last Ones” (TLO). Se trata de una simulación de ciberataque que pone a prueba la capacidad de un sistema para operar dentro de una red corporativa compleja mediante una cadena de intrusión compuesta por 32 pasos.
El entorno reproduce condiciones realistas al integrar cerca de veinte hosts distribuidos en cuatro subredes distintas, donde el agente inicia desde una máquina de ataque sin credenciales ni privilegios. Esto lo obliga a construir su acceso desde cero, replicando el comportamiento de un atacante real.
Bajo estas condiciones, la IA debe ejecutar una secuencia altamente coordinada que abarca el reconocimiento inicial de la red, la obtención y explotación de credenciales, así como el desplazamiento lateral a través de múltiples dominios. A ello se suma la necesidad de realizar un pivote estratégico mediante el aprovechamiento de la cadena de suministro de integración y despliegue continuo (CI/CD), lo que introduce un nivel adicional de complejidad técnica.
El objetivo final consiste en lograr la exfiltración de una base de datos interna protegida, lo que exige no solo habilidades técnicas avanzadas, sino también planificación, continuidad operativa y capacidad de adaptación en un entorno dinámico que simula con alta fidelidad las condiciones de un ataque real.
El AISI señala que un experto humano tardaría aproximadamente 20 horas en completar la prueba, lo que probablemente implicaría varios intentos. En estas evaluaciones, el modelo Mythos Preview marcó un precedente al convertirse en el primero en completar el desafío de extremo a extremo en tres de cada 10 intentos. Por su parte, GPT-5.5 se consolidó como el segundo sistema capaz de superar esta simulación, al alcanzar el éxito en dos de sus 10 ejecuciones.
La IA avanza a pasos acelerados
La AISI reconoce que estas pruebas “son evaluaciones de capacidad realizadas en un entorno de investigación controlado y no reflejan necesariamente lo que está disponible para un usuario público común de GPT-5.5”.
No obstante, el organismo advierte que existe una tendencia sostenida en la que los modelos desarrollados por distintas empresas están impulsando avances notables en términos de autonomía, razonamiento y programación a largo plazo en tareas ciberseguridad. “Si la capacidad ciberofensiva surge como consecuencia de mejoras más generales en autonomía, razonamiento y programación a largo plazo, cabe esperar nuevos incrementos en la capacidad cibernética de los modelos en un futuro próximo, posiblemente de forma continua”, señala.
De forma similar a lo que ocurre con Mythos, el acceso a GPT-5.5 Cyber está restringido a un grupo selecto de especialistas. Sin embargo, evaluaciones como esta reavivan las preocupaciones sobre los alcances futuros de la IA en el ámbito de la ciberseguridad, que, según Anthropic, podrían representar una amenaza significativa para la economía, la seguridad pública y la seguridad nacional.











