根據 BBC 報導,伊隆馬斯克 (Elon Musk) 旗下的社群平台 X 正受到英國通訊管理局 (Ofcom) 的調查,這項調查行動主要針對其 AI 聊天機器人 Grok 近期涉及生成大量未經同意的深偽色情影像,特別是針對女性與未成年人的不雅內容。
這起事件不僅引發全球對生成式 AI 安全機制的關注,也成為英國線上安全法實施以來面臨的重大考驗之一。
數位脫衣風波引爆監管壓力
各國關注事件的導火線源於 Grok 近期推出的影像編輯功能。使用者發現,只要輸入特定提示詞就能將人物換上比基尼或極簡布料,系統會繞過安全防護,將原本穿著正常的照片修改為裸露、比基尼泳裝、內衣或具有高度性暗示的影像。
根據外媒報導指出,這項漏洞被大量惡意使用者濫用,受害者範圍從公眾人物擴及一般民眾,甚至包含未成年人。網路上隨即充斥著利用 Grok 製作的深偽影像,甚至有案例顯示,這項工具被用於製作兒童性虐待相關內容(CSAM),這直接觸犯了多國的法律底線。這波被稱之為數位脫衣的亂象,迫使印尼、馬來西亞等國採取封鎖 xAI 的行動,同時也招來歐盟與英國監管機構關切。
X 平台緊急調整與限縮功能
面對排山倒海的輿論壓力與法律風險,X 平台與開發商 xAI 的態度經歷了顯著轉變。初期官方僅以制式回應駁斥媒體報導,但隨著證據確鑿,該公司隨後承認系統的安全防護機制存在漏洞,並表示正在緊急修正。
為了止血,X 平台也對 Grok 的影像生成功能做出了重大調整。X 平台目前的策略是大幅限縮該功能的使用權限,據悉已經暫停對大部分免費用戶開放影像生成工具,僅保留給付費訂閱者,並承諾未來將強化過濾機制以阻擋違法指令。然而,部分評論認為將危險功能轉為付費牆後的服務,根本無法解決生成式 AI 在倫理與安全上的隱憂。
英國法規與科技大廠的角力
本次 Ofcom 的介入調查具有指標性意義。依據英國線上安全法的規定,科技平台負有評估並降低其服務所衍生之非法內容風險的法定責任,其中尤以兒童安全相關內容為重點。Ofcom 強調,他們將檢視 X 平台在推出 Grok 影像功能前是否已進行了足夠的風險評估,以及在發現問題後是否採取了有效措施來保護使用者。
若調查結果認定 X 平台未能履行線上安全法所規定的法定義務,該公司可能將面臨巨額罰款,甚至面臨更嚴厲的營運限制。這起事件也再次凸顯了 AI 科技公司在競逐 AI 效能同時,往往容易輕忽安全護欄的建立,導致技術被有心人士武器化,對真實世界造成難以彌補的傷害。換言之,如何在技術創新與使用者安全之間取得平衡,將是 xAI 及所有 AI 開發商必須面對的課題。
首圖由 Nano Banana AI 生成








