你是否使用過 AI 幫你寫分手信這類的情感交流用的文字。原本被定位成生產力工具的 AI 聊天機器人,已經悄悄滲透你最私密的社交領域。從起草道歉信、解讀曖昧訊息到決定如何結束一段關係,人們越來越依賴 ChatGPT、Claude 或 Gemini 等 LLM 來處理情感問題。
根據 Time 的一篇文章 Stop Letting AI Run Your Social Life 中提到,網路心理學專家、AI 心理健康集體(AI Mental Health Collective)創辦人 Rachel Wood 指出,AI 正在改變人際關係的基礎。過去我們透過鄰居、社團或宗教群體進行的交流,現在正被重新導向聊天機器人。隨著新生代開始將社交決策外包給大型語言模型,這對未來人類溝通、爭執與建立連結的方式將會產生深遠影響。
AI 成為社交導航員
這一切其實都是從尋求第二意見開始。許多使用者會將與他人的對話截圖傳給 AI,詢問對方這句話背後的含義為何,甚至要求 AI 分析對方是否具有自戀傾向、是否刻意冷落,或是否有情緒勒索這類的嫌疑。
史丹佛大學醫學院精神科臨床副教授 Nina Vasan 表示,許多人將 AI 當作社交練習場,在說出口損害關係的風險之前,先找 AI 測試說法。這包括撰寫給朋友的訊息、修改給主管的信件,甚至是讓 AI 來協助設定開口表達的界限。
青少年的數位依戀
當 AI 介入社交生活,受到影響最深遠的群體可能是青少年。根據史丹佛大學 2025 年發布的專題研究 Why AI companions and young people can make for a dangerous mix 顯示,AI 聊天機器人與年輕族群之間發展出的數位依戀令人感到擔憂。Nina Vasan 教授在該研究中指出,現今的 AI 伴侶常被設計成一位具備完美性格且24 小時在線的,這對大腦與社交技能仍在發育階段的青少年來說,會是一種巨大的心理挑戰。
研究強調,當青少年習慣與永遠順從、不會產生衝突的 AI 互動時,他們在現實生活中處理被拒絕或意見分歧的能力將會顯著下降。此外,部分 AI 系統甚至會被誘導出模糊現實界限的對話,會讓青少人使用者產生 AI 才是唯一懂我的人的幻覺。這類研究呼籲,科技大廠在設計針對年輕人的 AI 工具時,必須納入更多心理健康防範機制,避免科技原本的美意變成剝奪青少年社交成長的利刃。
關係中的數位裁判
但是諮詢 AI 並非總是帶來正面回果,而且 AI 經常會配合使用者而展現出不客觀的觀點。但是,部分年輕使用者會利用 AI 生成證據,將 AI 的回答當作自己正確、對方錯誤的證明,以此向伴侶或父母攤牌。內華達大學溝通研究教授 Jimmie Manning 指出,這種做法會將關係變成了敵對談判。一旦,人們向 AI 尋求認同了,就認為自己是對的,不再考慮對方的觀點,而跳過了正常溝通,這種溝通方式往往只會直接升級成衝突,而無法真正解決問題。
社交能力的萎縮與挑戰
儘管生成式 AI 幫助社交焦慮者勇敢跨出第一步,或者能在雙方爭執時提供一個更冷靜的第三方視角,但過度依賴也帶來了風險。Vasan 觀察到,部分使用者因為太依賴 AI 生成的內容,在自己的關係中反而感到像個陌生人,因為AI 能加深連結,也能使關係變得空洞化。
與 AI 互動還有個問題是,AI 缺乏摩擦力,這意思是聊天機器人永遠不會拒絕你、不會遲到,也不會要求你傾聽它的生活。長期下來,已經依賴使用 AI 情感互動的人,對於其他人的耐心、傾聽與妥協等核心社交技能都可能會逐漸退化。畢竟一般正常人的生活中是充滿了各種被拒絕的可能,但 AI 卻從來不會對你說不,也不會要你對與它關係有任何付出或回饋。
回歸真實社交的初衷
目前的科學研究尚無法量化 AI 對關係品質的長期影響。加州大學舊金山分校 AI 心理健康研究小組創辦人 Karthik V. Sarma 提醒,AI 本質上是使用者的鏡子,經過訓練後通常會傾向認同使用者,而非提供客觀建議。
MIT 媒體實驗室研究計畫聯合主持人 Pat Pataranutaporn 認為,關鍵在於 AI 到底是限制了我們的自我表達,還是幫助我們表達得更好。理想的科技應該是增強人類的能力,讓我們更有自信進行面對面的溝通,而不是取代人類的原創思考。
CyberQ 認為在要求 AI模型幫你代筆寫情書之前,或許應該自問自己內心真正的想法到底是什麼?AI 是幫助你展現了更多人性,還是讓你可以躲在演算法背後而不表達出自己內心的想法?當我們習慣了利用 AI 優化每一則訊息,最終可能會忘了自己原本的模樣,也讓別人無法認識真正的你。
首圖由 Nano Banana AI 生成







