Los GPT-5.5-Cyber de OpenAI arman a los defensores cibernéticos

OpenAI ha lanzado GPT-5.5-Cyber para defensores de ciberseguridad previamente verificados, ofreciéndoles barandillas reducidas para flujos de trabajo de seguridad especializados.
Resumen

  • GPT-5.5-Cyber de OpenAI es el modelo más permisivo de su línea, disponible en vista previa limitada para socios aprobados que realizan trabajos avanzados de seguridad.
  • Los equipos verificados pueden usarlo para cazar vulnerabilidades, análisis de malware e ingeniería inversa, pero la escritura de malware y el robo de credenciales siguen bloqueados.
  • El lanzamiento llega después de que Anthropic, rival de OpenAI, lanzara un despliegue de vista previa de Claude Mythos un mes antes, lo que atrajo la atención de inversores y del gobierno.

OpenAI lanzó GPT-5.5-Cyber el 7 de mayo en una vista previa limitada, dirigido a profesionales de la seguridad que defienden infraestructura crítica. La empresa lo describe como el modelo más permisivo de su línea de ciberseguridad, orientado a flujos de trabajo especializados autorizados para un grupo menor de socios aprobados con requisitos de verificación más sólidos y controles a nivel de cuenta.

La versión específica de ciberseguridad facilita que los equipos verificados usen el modelo más reciente de OpenAI para la identificación de vulnerabilidades, la validación de parches y el análisis de malware, flujos de trabajo en los que las barandillas incorporadas en el GPT-5.5 disponible de forma general habrían generado fricción.

OpenAI dijo: “GPT-5.5-Cyber permite que un conjunto más pequeño de socios estudie flujos de trabajo avanzados en los que puede importar el comportamiento de acceso especializado”.

Lo que los defensores pueden y no pueden hacer

Los defensores aprobados para el nivel más alto del programa Trusted Access for Cyber de OpenAI reciben una versión de GPT-5.5 con menos barandillas que el modelo público, lo que habilita la caza de fallos, el estudio de malware y la ingeniería inversa de ataques. El robo de credenciales y la escritura de malware permanecen bloqueados independientemente del nivel de acceso.

Durante las pruebas iniciales, los socios seleccionados usaron GPT-5.5-Cyber para automatizar y ampliar ejercicios de red teaming en sistemas de infraestructura y para validar vulnerabilidades de alta severidad. OpenAI planea documentar los hallazgos en una futura inmersión técnica en el marco de un proceso de divulgación responsable.

El UK AI Security Institute publicó una evaluación de GPT-5.5 en 95 tareas de ciberseguridad estrechas. El instituto encontró que las tareas básicas ya están completamente saturadas por los modelos líderes desde, al menos, febrero de 2026, aunque advirtió que sus pruebas no reflejan el rendimiento frente a objetivos del mundo real bien defendidos con defensores activos y penalizaciones por alertas.

Presión competitiva

El despliegue llega un mes después de que Anthropic lanzara Claude Mythos Preview, un modelo centrado en ciberseguridad que atrajo la atención de inversores y de miembros senior de la administración de Trump, incluso después de que Anthropic hubiera sido incluido en una lista negra por el Pentágono semanas antes.

La ciberseguridad con IA se ha convertido en un frente competitivo formal, y ambas empresas plantean preguntas sobre quién controla las herramientas de ofensiva y defensa con IA y quién asume la responsabilidad cuando esas capacidades se usan mal.

OpenAI señaló que también ha proporcionado acceso a un modelo anterior, GPT-5.4-Cyber, al US Center for AI Standards and Innovation y al UK AI Security Institute para su evaluación independiente. El GPT-5.5 estándar sigue siendo su punto de entrada recomendado para la mayoría de los defensores.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

TT Chain integra el sistema de seguridad AegisAI para la protección de RWA el 11 de mayo

Según el anuncio de TT Chain del 11 de mayo, la red blockchain de capa 2 integró la infraestructura de seguridad impulsada por IA de AegisAI en su ecosistema de activos del mundo real tokenizados. La colaboración mejora la protección de las transacciones de activos tokenizados y de las operaciones entre cadenas mediante capacidades avanzadas de detección de amenazas y auditoría de contratos inteligentes. Los agentes autónomos de IA de AegisAI detectan ataques de phishing, evitan intentos de acce

GateNewsHace19m

La startup de IA Wispr en conversaciones de financiación con una valoración de $2B el 12 de mayo

Según PANews, la startup de IA Wispr está en negociaciones de recaudación el 12 de mayo, con una valoración de 2 mil millones de dólares.

GateNewsHace25m

Sam Altman testificará hoy en la demanda de $38M OpenAI de Musk

De acuerdo con BlockBeats, Sam Altman está programado para testificar hoy (12 de mayo) en un tribunal federal en Oakland, California, en relación con la demanda de Elon Musk contra OpenAI. Altman subirá al estrado después de que el presidente de la junta de OpenAI, Bret Taylor, termine su testimonio. Musk presentó la demanda en 2024 alegando que OpenAI, Altman y el presidente Greg Brockman violaron la misión original sin fines de lucro y de beneficio público de la empresa. Musk sostiene que su d

GateNewsHace52m

Depthfirst detecta fallas críticas de Internet a un décimo del costo del «Mythos» de Anthropic

Según BlockBeats, el 12 de mayo, la startup de ciberseguridad con IA Depthfirst anunció que su modelo de descubrimiento de vulnerabilidades de IA desarrollado internamente encontró múltiples fallas de seguridad críticas que fueron omitidas por el Mythos de Anthropic, afirmando que el coste total era solo una décima parte del de este último. El CEO de Depthfirst, Qasim Mithani, dijo que la empresa puede «completar trabajos por 1.000 USD que Mythos necesitaría 10.000 USD para lograr» optimizando l

GateNewshace1h

Las IPO de Cerebras esta semana a una valoración de 55 mil millones de dólares, lo que le daría a OpenAI una participación potencial del 11%

Según Odaily, el fabricante de chips de inteligencia artificial Cerebras saldrá a bolsa esta semana con una valoración de IPO de 55 mil millones de dólares. El compromiso de inversión de 200 mil millones de dólares de OpenAI podría darle una participación del 11% en la empresa.

GateNewshace1h

Cerebras sale a bolsa esta semana con una valoración de 5,5B; la participación del 11% de OpenAI podría generar más de 5B

Según The Information, el fabricante de chips de IA Cerebras saldrá a bolsa esta semana con una valoración de IPO de 5,5 mil millones de dólares. El compromiso de inversión de OpenAI de 20 mil millones de dólares podría darle una participación del 11% en la empresa, potencialmente generando más de 5 mil millones de dólares en ingresos.

GateNewshace1h
Comentar
0/400
Sin comentarios