Les GPT-5.5-Cyber d’OpenAI pour armer les défenseurs de la cybersécurité

OpenAI a lancé GPT-5.5-Cyber pour des défenseurs cyber qualifiés, leur offrant des garde-fous réduits pour des workflows de sécurité spécialisés.
Résumé

  • GPT-5.5-Cyber d’OpenAI est le modèle le plus permissif de sa gamme, disponible en aperçu limité pour des partenaires approuvés réalisant des travaux de sécurité avancés.
  • Les équipes qualifiées peuvent l’utiliser pour la chasse aux bugs, l’analyse de logiciels malveillants et l’ingénierie inverse, mais l’écriture de malwares et le vol d’identifiants restent bloqués.
  • Le lancement fait suite au déploiement en aperçu de Claude Mythos de rival Anthropic un mois plus tôt, qui a attiré l’attention des investisseurs et du gouvernement.

OpenAI a publié GPT-5.5-Cyber le 7 mai en aperçu limité, ciblant des professionnels de la sécurité qui défendent des infrastructures critiques. L’entreprise le décrit comme le modèle le plus permissif de sa gamme en cybersécurité, conçu pour des workflows autorisés et spécialisés destinés à un groupe plus restreint de partenaires approuvés, avec des exigences de vérification plus strictes et des contrôles au niveau du compte.

La version dédiée à la cyber rend plus facile pour les équipes qualifiées l’utilisation du dernier modèle d’OpenAI pour l’identification de vulnérabilités, la validation de correctifs et l’analyse de logiciels malveillants, des workflows pour lesquels les garde-fous intégrés dans le GPT-5.5 généralement disponible auraient créé des frictions.

OpenAI a déclaré : « GPT-5.5-Cyber permet à un ensemble réduit de partenaires d’étudier des workflows avancés où le comportement d’accès spécialisé peut compter. »

Ce que les défenseurs peuvent et ne peuvent pas faire

Les défenseurs approuvés pour le plus haut niveau du programme Trusted Access for Cyber d’OpenAI reçoivent une version de GPT-5.5 avec moins de garde-fous que le modèle public, permettant la chasse aux bugs, l’étude de logiciels malveillants et l’ingénierie inverse d’attaques. Le vol d’identifiants et l’écriture de malwares restent bloqués quel que soit le niveau d’accès.

Lors des tests initiaux, des partenaires sélectionnés ont utilisé GPT-5.5-Cyber pour automatiser et étendre des exercices de red teaming sur des systèmes d’infrastructure et pour valider des vulnérabilités de sévérité élevée. OpenAI prévoit de documenter les résultats dans une future analyse technique approfondie dans le cadre d’un processus de divulgation responsable.

L’UK AI Security Institute a publié une évaluation de GPT-5.5 sur 95 tâches cyber étroites. L’institut a constaté que les tâches de base sont entièrement saturées par les modèles de tête depuis au moins février 2026, tout en mettant en garde que ses tests ne reflètent pas les performances sur des cibles réelles bien défendues, avec des défenseurs actifs et des pénalités en cas d’alerte.

Pression concurrentielle

Le déploiement intervient un mois après qu’Anthropic a publié Claude Mythos Preview, un modèle axé cyber qui a suscité l’attention des investisseurs et de membres seniors de l’administration Trump, même après qu’Anthropic eut été inscrit sur liste noire par le Pentagone quelques semaines plus tôt.

La cybersécurité par l’IA est devenue un front concurrentiel officiel, les deux entreprises soulevant des questions sur qui contrôle les outils d’attaque et de défense par l’IA et sur qui porte la responsabilité lorsque ces capacités sont mal utilisées.

OpenAI a noté qu’elle a également fourni l’accès à un modèle antérieur, GPT-5.4-Cyber, au US Center for AI Standards and Innovation et à l’UK AI Security Institute pour une évaluation indépendante. Le GPT-5.5 standard reste son point d’entrée recommandé pour la majorité des défenseurs.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Les risques géopolitiques en tête du sondage de printemps de la Réserve fédérale, l’IA progresse jusqu’à la troisième place

D’après l’enquête de printemps 2026 de la Réserve fédérale, les risques géopolitiques sont apparus comme la principale préoccupation des répondants, gagnant une place par rapport à l’enquête d’automne 2025. L’intelligence artificielle est passée à la troisième place depuis la cinquième, tandis que le crédit privé est monté à la quatrième place depuis la neuvième. L’inflation et

GateNewsIl y a 2h

SoftBank réduit le plan de financement soutenu par OpenAI de $10B à $6B au milieu des inquiétudes des prêteurs

D’après ChainCatcher, le groupe SoftBank réduit un plan de financement soutenu par des actions d’OpenAI, en passant d’environ 10 milliards de dollars à 6 milliards de dollars. Les prêteurs ont soulevé des inquiétudes au sujet de la structure de la transaction et de la fiabilité de l’évaluation d’OpenAI en tant qu’entreprise privée, devenant un élément clé

GateNewsIl y a 7h

Step Audio 2,5 Realtime est sorti : score subjectif 80,41, écrase GPT-Realtime-1.5 de 18 %, les appels vocaux coûtent 3,8 yuan/heure

Selon Beating, Step Audio 2,5 Realtime, un modèle vocal temps réel de bout en bout par Step Cosmos, a été lancé sur son API de plateforme ouverte en avril 2026. Le modèle met l’accent sur des conversations naturelles avec des personas de personnages personnalisables et une perception paralinguistique (ton, pauses, soupirs). Dans officiel

GateNewsIl y a 7h

Le fonds TCI se déleste de près de $8B en actions Microsoft, invoquant une menace liée à l’IA

D’après le Financial Times, le hedge fund de Chris Hohn, TCI, s’est récemment désengagé d’environ 8 milliards de dollars d’actions de Microsoft. Le fonds a indiqué aux investisseurs que l’intelligence artificielle représente une menace pour la position dominante de Microsoft dans les logiciels

GateNewsIl y a 8h

Tessera Labs clôture une levée de fonds $60M menée par a16z

Selon Odaily, la startup d’automatisation par l’IA Tessera Labs a annoncé la finalisation d’une levée de fonds de 60 millions de dollars menée par Andreessen Horowitz (a16z), avec la participation de Foundation Capital, Myriad Venture Partners et Osage University Partners. La plateforme native d’IA de la société automatise les entreprises

GateNewsIl y a 10h

Des attaquants injectent 575 compétences malveillantes dans Hugging Face et ClawHub via 13 comptes

D’après le directeur de la sécurité (CISO) de Mist Security, @im23pds, des attaquants ont récemment compromis 13 comptes afin d’injecter 575 compétences malveillantes dans Hugging Face et ClawHub (OpenClaw), comme indiqué sur la plateforme X.

GateNewsIl y a 10h
Commentaire
0/400
Aucun commentaire