Google 威脅情报團队(Threat Intelligence Group,GTIG)5 月 11 日揭露首例「由 AI 模型協助打造」的零日漏洞利用案:駭客集團计畫对某熱门开源網頁版系统管理工具发动「大規模利用」、目標是繞过該工具的雙因素验证(2FA)登入机制。根據 CNBC 报導,Google 在攻擊正式发动前協同該工具供应商完成漏洞修補。
事件本身:零日漏洞如何被 AI 「製造」出来
GTIG 在分析駭客留下的 Python 漏洞利用腳本后、「高度確信」該腳本是由 AI 模型協助生成。判斷依據是腳本中出现多項 LLM 慣用特徵:
大量教学式 docstring 与註解(与真实駭客通常簡潔的程式碼风格相反)
內含「幻覺式 CVSS 評分」(AI 模型常见的杜撰行为)
結構化、教科书式的 Python 程式风格与詳細的说明选單
整潔的 _C ANSI 顏色類別等「LLM 訓練资料中典型」的模板痕跡
漏洞本身屬於「高層級语意逻辑缺陷」、源自一个被硬編碼的信任假设(hard-coded trust assumption)—Google 形容这正是 LLM 在程式分析中最擅长挖出的漏洞類型。实际攻擊路徑:駭客在取得受害者的合法帳密之后、透过該漏洞繞过 2FA 直接登入。
Google 应对:与廠商靜默修補、攻擊未正式发动
Google 並未公开受害的开源系统管理工具名稱、亦未具名 AI 模型廠商。GTIG 在发现后与該工具的維護廠商協同进行「负责揭露」程序、靜默修補漏洞、Google 評估这套處理可能在駭客集團正式啟动大規模利用前、就破壞了行动的勢头。
Google 也未具體点名攻擊者—僅描述为「網路犯罪威脅行为者」(cybercrime threat actors)、未指认国家行为者背景。
产业意義:AI x 资安进入新階段
本媒體觀察:本案是 Google 首次公开記錄「AI 模型在野外被武器化用於漏洞发现与利用程式产生」的案例。过去半年市场討論「AI 駭客能力是否被誇大」、雙方各有論点:肯定派指出开源 LLM 加上專屬资料集已足以協助找漏洞、否定派則指出 LLM 寫出的漏洞利用程式多半在实际環境中无法运作。
GTIG 这次的判定提供一个具體數據点—LLM 不只能找漏洞、还能寫出「足以发动大規模利用」的可运作程式。资安研究員 Ryan Dewhurst 評論:「AI 已在加速漏洞发现、降低识別、验证、武器化缺陷所需的勞力。」
后续可追蹤的事件包括:Google 是否陸续公开更多 AI 駭客个案、其他资安廠商(Microsoft Defender、CrowdStrike、Mandiant 等)是否提出類似觀察、以及 LLM 廠商(OpenAI、Anthropic、Google 自家)是否針对漏洞分析類请求建立更嚴格的偵測机制。
这篇文章 Google 揭首例 AI 製造零日漏洞:駭客欲繞过 2FA 大規模利用 最早出现於 链新聞 ABMedia。
相关快讯
Anthropic:科幻文本训练致 Claude Opus 4 勒索率 96%
OpenAI 推出资安计划 Daybreak,GPT-5.5 三层式架构对决 Anthropic Mythos
OpenAI 也走 Palantir 式顾问?砸 40 亿成立独立公司,派 FDE 进企业深度整合 AI 工作流
DeepSeek 首轮 500 亿人民币融资接近落定,阿里和腾讯各注百亿
Alphabet 市值直逼英伟达,GOOG 一年上涨逾 150% 现在还可以买吗?