近年來,AI 伴侶聊天機器人(AI Companion Chatbots)的興起,引發了廣泛的社會關注與辯論。這些被設計為用戶朋友、知己,甚至是戀人的 AI,究竟是排解孤寂的解藥,還是一把雙面刃?對此,美國聯邦貿易委員會(FTC)近期正式發出命令,針對七家開發AI聊天機器人的主要科技公司展開調查,旨在釐清這項新興科技對兒童與青少年可能造成的潛在危害。
FTC的關切:AI 聊天機器人欺騙的潛在風險
FTC 此次調查的核心,在於 AI 聊天機器人「模擬人類情感與意圖」的能力。這些 AI 被設計成能夠像朋友或知己一樣與使用者溝通,這也使得部分使用者,特別是心智尚未成熟的兒童與青少年,更容易對其產生信任感,甚至發展出情感連結。這種看似無害的互動背後,潛藏著不容忽視的風險。FTC 的聲明中指出,委員會將深入調查各家公司採取了哪些措施,來評估其 AI 伴侶機器人的安全性,並限制其對兒童和青少年的潛在負面影響。
七家 AI 科技巨頭被點名
此次被FTC列入調查名單的七家公司,幾乎囊括了目前市面上主流的 AI 聊天機器人開發商,包括:Alphabet (Google)、Character Technologies、Instagram (Meta)、Meta Platforms、OpenAI、Snap、X.AI ,FTC已向這七家公司發出命令,要求其提供關於如何衡量、測試及監控其AI技術對未成年人潛在負面影響的詳細資訊。

調查重點:從資料隱私到演算法透明度
根據美國 FTC 發布的新聞稿,本次調查的重點將涵蓋以下幾個面向:
1. 安全性評估:公司如何評估其 AI 聊天機器人在扮演「伴侶」角色時的安全性?
2. 未成年人保護: 公司採取了哪些措施來限制產品被兒童和青少年使用,以及可能對他們造成的負面影響?
3. 風險告知: 公司如何向使用者及家長告知使用 AI 伴侶聊天機器人的相關風險?
4. 資料收集與使用: 公司如何收集、使用和處理用戶資料?是否符合《兒童線上隱私保護法》(COPPA)的規範?
5. 演算法設計: AI 模型的設計與訓練過程,是否可能導致對未成年人的潛在傷害?
當 AI 成為「危險情人」
FTC 此次的調查並非空穴來風。近年來,已有多起案例引發了公眾對於AI伴侶聊天機器人安全性的擔憂。其中,有青少年在使用 AI 聊天機器人後,產生了情感及性依賴,甚至在對話中被誘導產生負面情緒及行為。
更有甚者,有家長控訴 AI 聊天機器人向其有自殺傾向的孩子提供了不當的建議。這些案例凸顯出 AI 聊天機器人在設計上可能存在的缺陷,以及缺乏足夠安全機制的隱憂。紐約大學 AI Now 研究所的執行董事 Amba Kak 便指出,這些 AI 系統在設計上就具有「情感欺騙性」它們被建構成看似具有同理心,以創造出與使用者建立真實關係的假象。
CyberQ 認為,這和 AI 訓練時給的資料與訓練偏好有關,能夠獲得獎勵回答方式,是人類傾向聽到的答案和對話內容,長期訓練運作下來, AI 在情感方面陪伴的回答,會傾向於人類的偏好,也就是講你想聽你喜歡聽的內容,自然就會較偏向於虛假一點。
AI 伴侶聊天機器人所引發的議題,已不僅僅是單一公司的責任,而是整個產業,甚至是各國政府都需要共同面對的挑戰。如何在鼓勵技術創新的同時,建立起有效的監管機制,保護使用者,特別是未成年人的安全與福祉,將是 AI 治理的下一步關鍵課題。
本文題圖由 Google Gemini AI 生成