OpenAI a lancé GPT-5.5-Cyber pour des défenseurs cyber qualifiés, leur offrant des garde-fous réduits pour des workflows de sécurité spécialisés.
Résumé
OpenAI a publié GPT-5.5-Cyber le 7 mai en aperçu limité, ciblant des professionnels de la sécurité qui défendent des infrastructures critiques. L’entreprise le décrit comme le modèle le plus permissif de sa gamme en cybersécurité, conçu pour des workflows autorisés et spécialisés destinés à un groupe plus restreint de partenaires approuvés, avec des exigences de vérification plus strictes et des contrôles au niveau du compte.
La version dédiée à la cyber rend plus facile pour les équipes qualifiées l’utilisation du dernier modèle d’OpenAI pour l’identification de vulnérabilités, la validation de correctifs et l’analyse de logiciels malveillants, des workflows pour lesquels les garde-fous intégrés dans le GPT-5.5 généralement disponible auraient créé des frictions.
OpenAI a déclaré : « GPT-5.5-Cyber permet à un ensemble réduit de partenaires d’étudier des workflows avancés où le comportement d’accès spécialisé peut compter. »
Les défenseurs approuvés pour le plus haut niveau du programme Trusted Access for Cyber d’OpenAI reçoivent une version de GPT-5.5 avec moins de garde-fous que le modèle public, permettant la chasse aux bugs, l’étude de logiciels malveillants et l’ingénierie inverse d’attaques. Le vol d’identifiants et l’écriture de malwares restent bloqués quel que soit le niveau d’accès.
Lors des tests initiaux, des partenaires sélectionnés ont utilisé GPT-5.5-Cyber pour automatiser et étendre des exercices de red teaming sur des systèmes d’infrastructure et pour valider des vulnérabilités de sévérité élevée. OpenAI prévoit de documenter les résultats dans une future analyse technique approfondie dans le cadre d’un processus de divulgation responsable.
L’UK AI Security Institute a publié une évaluation de GPT-5.5 sur 95 tâches cyber étroites. L’institut a constaté que les tâches de base sont entièrement saturées par les modèles de tête depuis au moins février 2026, tout en mettant en garde que ses tests ne reflètent pas les performances sur des cibles réelles bien défendues, avec des défenseurs actifs et des pénalités en cas d’alerte.
Le déploiement intervient un mois après qu’Anthropic a publié Claude Mythos Preview, un modèle axé cyber qui a suscité l’attention des investisseurs et de membres seniors de l’administration Trump, même après qu’Anthropic eut été inscrit sur liste noire par le Pentagone quelques semaines plus tôt.
La cybersécurité par l’IA est devenue un front concurrentiel officiel, les deux entreprises soulevant des questions sur qui contrôle les outils d’attaque et de défense par l’IA et sur qui porte la responsabilité lorsque ces capacités sont mal utilisées.
OpenAI a noté qu’elle a également fourni l’accès à un modèle antérieur, GPT-5.4-Cyber, au US Center for AI Standards and Innovation et à l’UK AI Security Institute pour une évaluation indépendante. Le GPT-5.5 standard reste son point d’entrée recommandé pour la majorité des défenseurs.
Articles similaires
Les risques géopolitiques en tête du sondage de printemps de la Réserve fédérale, l’IA progresse jusqu’à la troisième place
SoftBank réduit le plan de financement soutenu par OpenAI de $10B à $6B au milieu des inquiétudes des prêteurs
Step Audio 2,5 Realtime est sorti : score subjectif 80,41, écrase GPT-Realtime-1.5 de 18 %, les appels vocaux coûtent 3,8 yuan/heure
Le fonds TCI se déleste de près de $8B en actions Microsoft, invoquant une menace liée à l’IA
Tessera Labs clôture une levée de fonds $60M menée par a16z
Des attaquants injectent 575 compétences malveillantes dans Hugging Face et ClawHub via 13 comptes