Des entreprises indiennes de cybersécurité, dont Indusface et Astra Security, adoptent des agents IA construits sur de grands modèles de langage afin d’accélérer les tests de vulnérabilités logicielles, faisant passer les délais de quelques jours ou semaines à quelques heures, d’après The Economic Times. Ce changement reflète l’augmentation de la vitesse des attaquants et le fait que les outils d’IA développent désormais la capacité d’identifier des exploits de façon autonome, poussant les entreprises à mettre en place des tests automatisés pour rester à la hauteur des menaces en constante évolution.
Accélération du temps de test
Les évaluations de sécurité pour de gros clients, qui nécessitaient auparavant quatre à cinq jours — voire jusqu’à 20 jours pour des applications plus importantes — se terminent désormais en quelques heures, selon Ashish Tandon, PDG d’Indusface. Cette accélération permet aux équipes de sécurité d’identifier et de traiter les vulnérabilités plus rapidement à mesure que le paysage des menaces évolue.
Vitesse des attaquants et croissance des vulnérabilités
L’urgence de tests plus rapides est soulignée par des données émergentes sur les capacités des attaquants. CrowdStrike a indiqué que le délai moyen d’aboutissement d’une intrusion (breakout) est tombé à 48 minutes en 2025. De son côté, Gartner prévoit que les vulnérabilités documentées annuelles dépasseront 1 million d’ici 2030, contre environ 277 000 en 2025 — une hausse proche d’un quadruplement.
Expansion des capacités de l’IA
Proofpoint, qui a étendu ses opérations en Inde l’an dernier, a noté que les agents IA permettent de passer en revue des milliers d’alertes de menace chaque jour. Cette automatisation répond à un défi majeur : les entreprises font face à un resserrement des réglementations sur les données et à une pénurie d’analystes sécurité qualifiés. La capacité dépasse le simple tri des alertes ; selon Anthropic, l’aperçu de Claude Mythos a identifié un bug dans OpenBSD, un système d’exploitation open source, qui était resté non détecté pendant 27 ans. Le même modèle a aussi atteint un taux de réussite de 72,4 % pour convertir des vulnérabilités connues en exploits opérationnels, contre 14,4 % pour Opus 4.6, un modèle plus ancien d’Anthropic.
Remédiation et disparité organisationnelle
Si l’IA accélère la découverte des vulnérabilités, la remédiation — le processus de correction des problèmes de sécurité — demeure un goulot d’étranglement qui exige une validation et une revue humaine. D’après Arctic Wolf, une entreprise de cybersécurité, 76 % des compromissions dans ses cas de réponse à incident impliquaient une ou plusieurs des 10 vulnérabilités connues pour lesquelles des correctifs étaient disponibles avant l’exploitation. Cet écart pourrait s’accentuer dans l’écosystème de la sécurité : les grandes entreprises dotées de capacités de détection et de remédiation pilotées par l’IA pourraient dépasser les organisations plus petites, dépourvues de personnel ou de budget suffisants pour gérer le volume de vulnérabilités identifiées.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Les paiements de x402 Protocol au T1 dépassent 100 millions de dollars, 90 % des transactions de stablecoins d’agents IA en chaîne sur Base
D’après ChainCatcher, les paiements du protocole x402 de Base ont totalisé plus de 100 millions de dollars au 1er trimestre 2026. Plus de 90% des transactions de stablecoins liées à des agents IA en chaîne ont eu lieu sur le réseau Base.
GateNewsIl y a 21m
Garry Tan : Je donne maintenant très rarement des instructions à l’IA ! Le PDG de YC analyse les « workflows d’IA composables »
Garry Tan a récemment publié un long article intitulé « Meta-Meta-Prompting: The Secret to Making AI Agents Work », dans lequel il détaille comment il a conçu un « deuxième système de cerveau » piloté par des AI agent. Il affirme qu’au cours des cinq derniers mois, l’IA lui a permis de redevenir builder, et même de transformer radicalement sa façon de travailler au quotidien en tant que CEO de Y Combinator. YC CEO : l’avenir appartient à ceux qui construisent des compoud AI systems Garry Tan est
ChainNewsAbmediaIl y a 6h
UXLINK s’associe à Haven AI pour lancer des outils de rendement DeFi inter-chaînes alimentés par l’IA
D'après l'annonce de UXLINK du 9 mai, la plateforme s'est associée à Haven AI pour lancer des agents IA capables de convertir des commandes en langage naturel en stratégies DeFi automatisées inter-chaînes. Cette collaboration vise à simplifier la génération de rendement et à réduire les barrières techniques pour les utilisateurs Web3 participant à l'écosystème SocialFi. Les agents IA de Haven AI, dont OpenClaw, permettent aux utilisateurs de définir des objectifs d'investissement en langage cour
GateNewsIl y a 6h
Trust Wallet et Mesh présentent des capacités d’agents IA à Consensus Miami
D’après CoinDesk, Trust Wallet et Mesh ont annoncé le 9 mai, lors de Consensus Miami, des mises à jour de l’architecture des portefeuilles pour servir des agents IA. Mesh a lancé Smart Funding, qui achemine automatiquement les paiements entre les chaînes et tient compte à la fois des utilisateurs et des agents IA. Trust Wallet a introduit une fonctionnalité de co-pilote IA dans son portefeuille grand public tout en conservant la garde des clés des utilisateurs, et a publié Agent Kit pour les dév
GateNewsIl y a 22h
L’IA co-mathématicienne de Google DeepMind atteint 47,9 % sur FrontierMath, catégorie 4, dépasse GPT-5,5 Pro, et résout 3 problèmes précédemment impossibles
Google DeepMind a publié AI co-mathématicien, un assistant de recherche en mathématiques multi-agents, atteignant 47,9% de précision sur le banc d’essai FrontierMath de niveau 4, dépassant l’ancien record de 39,6% de GPT-5.5 Pro le 9 mai. Le système a résolu 23 problèmes sur 48, dont 3 que tous les modèles précédents n’avaient pas réussi à résoudre. Construit sur Gemini 3.1 Pro, l’architecture utilise une conception hiérarchique avec un agent coordinateur de projet qui distribue les tâches à des
GateNews05-09 11:17
OpenAI révèle un impact inattendu de la notation du chaînage de pensée (CoT) : conserver la surveillance du raisonnement en chaîne est une ligne de défense clé pour l’alignement des agents IA
OpenAI a publié le 8 mai une nouvelle étude, révélant que, pendant le renforcement par apprentissage (RL), certaines idées de chaînage des pensées (Chain of Thought, CoT) de l’entreprise auraient été « accidentellement évaluées », ce qui pourrait affecter la capacité de l’AI Agent à être surveillé pour l’alignement (alignment). L’équipe d’Alignment d’OpenAI rapporte : conserver la « contrôlabilité » de la CoT est une ligne de défense clé pour prévenir les échecs d’alignement des AI Agent ; dans
ChainNewsAbmedia05-09 07:34