根據 BlockBeats,在 5 月 4 日,AI 社群使用者 X Freeze 質疑,主流 AI 模型(包括 ChatGPT、Claude 和 Gemini)是否存在系統性偏誤:在性別、移民與犯罪等議題上,對保守立場的對齊程度較低。該使用者提出,隨著 AI 能力不斷提升,其價值對齊流程可能會受到訓練資料與設計機制的影響,從而在特定公共議題上呈現一致的傾向。這項觀察引發社群就訓練資料偏誤與模型設計取向展開討論。主要 AI 開發者表示,他們的模型旨在透過多元的資料與評估機制來提升資訊準確性與安全性,以降低偏誤。
Related News