OpenAI 已向已審查的網路安全防禦者發布 GPT-5.5-Cyber,讓他們在針對專門的安全工作流程時可使用較寬鬆的保護欄。
摘要
OpenAI 於 5 月 7 日在有限內測中發布 GPT-5.5-Cyber,鎖定防禦關鍵基礎設施的安全專業人士。該公司將其描述為其網路安全陣容中最寬鬆的模型,目標是針對小範圍、獲核准合作夥伴的專門授權工作流程,並具備更強的驗證要求與帳戶層級的控管。
這個針對資安的版本讓經審查的團隊更容易使用 OpenAI 最新模型進行脆弱性辨識、修補驗證與惡意程式分析;這些流程如果使用一般可用的 GPT-5.5 內建的保護欄,原本會造成摩擦。
OpenAI 表示:「GPT-5.5-Cyber 讓較小的一組合作夥伴能夠研究進階工作流程,而在這些流程中,專門的存取行為可能很重要。」
獲准納入 OpenAI 之「資安可信存取(Trusted Access for Cyber)」計畫最高層級的防禦者,將取得一個比公眾模型保護欄更少的 GPT-5.5 版本,使其能夠進行漏洞挖掘、惡意程式研究,以及針對攻擊的逆向工程。無論存取層級如何,竊取憑證與撰寫惡意程式都仍被阻止。
在早期測試中,受選合作夥伴使用 GPT-5.5-Cyber 來自動化並擴展對基礎設施系統的紅隊測試演練,並驗證高嚴重度的漏洞。OpenAI 計畫在未來的技術深度解析中記錄這些發現,作為負責任揭露流程的一部分。
英國 AI 安全研究所(UK AI Security Institute)發布了對 GPT-5.5 在 95 個狹窄資安任務上的評估。該研究所發現,自至少 2026 年 2 月以來,基礎任務已被領先模型完全飽和,儘管它也提醒,其測試不反映面向受良好防護的真實世界目標、且有主動防禦者與告警懲罰時的效能。
此部署發布時程比 Anthropic 早一個月:Anthropic 釋出 Claude Mythos Preview,這是一個聚焦資安的模型,儘管在數週前 Anthropic 已被五角大廈列入黑名單,仍然引起投資人與川普政府高階成員的關注。
AI 網路安全已成為一個正式的競爭戰場,兩家公司都提出疑問:究竟是誰在掌控 AI 的攻擊與防禦工具,以及當這些能力被濫用時,責任應由誰承擔。
OpenAI 指出,它也已向美國 AI 標準與創新中心(US Center for AI Standards and Innovation)以及英國 AI 安全研究所提供較早期模型 GPT-5.4-Cyber,以供獨立評估。對於多數防禦者而言,標準版 GPT-5.5 仍是它建議的切入點。
Related News
IMF:AI 對金融穩定構成潛在威脅
OpenAI 推 GPT-Realtime-2:把 GPT-5 推理帶入語音 Agent、context 升至 128K
OpenAI DevDay 2026 將於 9/29 舊金山舉辦
OpenAI 推 ChatGPT Futures:26 名首屆學生獲 1 萬美元獎助、橫跨 20 多所大學
OpenAI 公布 MRC 超級電腦網路協議!攜手輝達、AMD、微軟打造 Stargate 基礎設施