Le gouverneur du Maryland accueille Microsoft et des dirigeants de l’IA pour discuter des risques de cybersécurité liés à une IA avancée

Message de Gate News, 20 avril — Le gouverneur du Maryland, Wes Moore, accueille Microsoft et d’autres dirigeants du secteur de l’IA afin de discuter des risques de cybersécurité associés à des systèmes d’IA avancés. Moore a également tenu des entretiens privés avec Sam Altman, directeur général de OpenAI, et Dario Amodei, directeur général de Anthropic.

La réunion fait suite à la divulgation par Anthropic, ce mois-ci, selon laquelle son modèle Claude Mythos Preview a révélé de graves risques de cybersécurité lors de tests limités. Le modèle peut, de manière autonome, trouver et exploiter des failles logicielles auparavant inconnues, une capacité susceptible de mettre à rude épreuve des processus de sécurité conçus pour des chercheurs humains qui découvrent généralement les vulnérabilités une par une, tandis que des équipes logicielles les corrigent sur des semaines ou des mois.

Le Maryland élabore sa stratégie de sécurité de l’IA depuis janvier 2024, date à laquelle le gouverneur Moore a signé un décret exécutif sur l’utilisation éthique de l’IA dans le gouvernement de l’État et a lancé la Maryland Cybersecurity Task Force avec des experts provenant de plusieurs agences étatiques. En 2025, l’État a publié une feuille de route et un rapport d’étude de 17 pages, « Maryland AI Enablement Strategy & AI Study Roadmap », couvrant l’adoption de l’IA dans 12 domaines, dont la sécurité publique et les infrastructures critiques. La feuille de route appelle à l’examen des risques cyber liés à l’IA, à l’élaboration d’un cadre de gestion des risques et à la mise en œuvre de projets pilotes d’ici décembre 2025.

Le déséquilibre entre la découverte de vulnérabilités pilotée par l’IA et la défense menée par des humains pose des défis aux équipes de sécurité. Un attaquant n’a besoin que d’une seule faille exploitable dans un système cible, tandis que les défenseurs doivent identifier et corriger les faiblesses dans de nombreux systèmes et organisations. Cette pression pourrait pousser les équipes de sécurité des entreprises et les agences gouvernementales vers une gestion de l’exposition alimentée par l’IA, qui vise à repérer et classer les risques plus rapidement que les modèles traditionnels de réponse aux menaces.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire