OpenAI 發布兒童安全藍圖,以因應由 AI 驅動的剝削

Decrypt

簡要概述

  • OpenAI 發布了其「兒童安全藍圖」,著手處理由 AI 驅動的兒童性剝削問題。
  • 該框架聚焦於法律改革、強化通報協調,以及內建於 AI 系統中的防護措施(護欄)。
  • 該提案是在兒童安全團體、州(總)檢察長(attorneys general)以及非營利組織的意見下制定的。

為了因應由 AI 驅動的兒童性剝削上升的趨勢,OpenAI 於週三公布了一份政策藍圖,概述產業可採取的新增安全措施,以協助遏制使用 AI 來製作兒童性虐待影像材料。
在該框架中,OpenAI 列出了法律、營運(操作)以及技術層面的措施,目標在於強化針對由 AI 驅動的濫用的保護,並提升科技公司與調查人員之間的協調。
「兒童性剝削是數位時代最迫切的挑戰之一,」該公司寫道。 「AI 正在迅速改變這些危害在產業中如何出現,以及如何能在規模化的情況下加以處理。」

OpenAI 表示,該提案納入了來自從事兒童保護與網路安全工作的組織的回饋,包括全國失蹤與受剝削兒童中心(National Center for Missing and Exploited Children)以及檢察總長聯盟(Attorney General Alliance)及其 AI 工作小組。
「生成式 AI 以令人深感不安的方式加速了網路兒童性剝削犯罪——降低門檻、擴大規模,並使新的傷害形式成為可能,」全國失蹤與受剝削兒童中心(National Center for Missing & Exploited Children)總裁兼執行長 Michelle DeLaune 在聲明中表示。 「但同時,全國失蹤與受剝削兒童中心也鼓勵看到像 OpenAI 這樣的公司反思:這些工具應如何自始就以更負責任的方式進行設計,並納入內建的防護措施。」
 OpenAI 表示,該框架在 AI 模型內結合了法律標準、產業通報系統與技術防護措施。該公司指出,這些措施旨在協助更早辨識剝削風險,並提升線上平台之間的問責性。

該藍圖指出了行動領域,包括:更新法律以處理由 AI 生成或被篡改的兒童性虐待影像材料;改善線上服務提供者通報濫用訊號並與調查人員協調的方式;以及在設計用於防止濫用的 AI 系統中建立防護措施。
「單一介入無法單獨解決這項挑戰,」該公司寫道。 「此框架將法律、營運(操作)與技術方法整合在一起,以更好地辨識風險、加速回應,並強化問責,同時確保執法機關在技術演進之際仍保持強韌。」

該藍圖發布之際,兒童安全倡議者提出擔憂:具備產生逼真影像能力的生成式 AI 系統可能被用來製作被操弄或合成的未成年人描繪。二月時,UNICEF 呼籲各國政府通過法律,將由 AI 生成的兒童虐待影像材料刑事化。
一月時,歐洲委員會啟動了正式調查,評估 X(此前稱為 Twitter)是否違反歐盟數位規則:原因是其未能阻止該平台的原生 AI 模型 Grok 生成非法內容;同時,英國與澳洲的監管機構也已展開調查。
OpenAI 指出,僅靠法律無法阻止由 AI 生成的濫用影像材料所帶來的禍害,並表示隨著 AI 系統變得更有能力,仍必須有更強的產業標準。
「透過更早打斷剝削企圖、提升送交給執法單位訊號的品質,並強化整個生態系的問責性,本框架旨在在危害發生之前加以預防,並在風險出現時協助確保兒童獲得更迅速的保護,」OpenAI 表示。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言