OpenAI 日前正式更新其 AI 模型行為規範(Model Spec),將青少年保護從政策層面與產品藍圖,進一步落實為模型本身必須遵守的行為準則。這項更新反映出 OpenAI 在面對全球監管機構、立法者與社會輿論壓力下,對未成年使用者風險管理策略的明確轉向。
相較於先前偏向理念說明與設計方向的公開文件,本次更新首次將青少年安全原則寫入 Model Spec,直接影響模型在實際對話中的回應界線與內容產出。
監管壓力下的政策演進路徑
根據 TechCrunch 報導,美國與多國立法機構正積極討論針對未成年人使用 AI 的標準與責任歸屬,並要求科技公司必須提出具體且可驗證的保護措施。在此背景下,OpenAI 近期連續釋出的三份文件,構成了一條清晰的政策演進路徑,而 12 月 18 日的 Model Spec 更新,正是這條路徑中最關鍵的一環。

九月確立安全優先原則
OpenAI 在 2025 年 9 月時發布了「青少年的安全、自由與隱私」一文,首次說明其在未滿 18 歲使用者情境下的核心立場。該文件強調 AI 系統在面對青少年時,必須在使用自由、隱私保護與安全風險之間做出不同於成人的取捨。
該文件的結論表示,當這三者發生衝突時,青少年的安全必須被置於最高優先順序。換言之,某些對成人使用者開放的互動方式,在青少年情境下會被限制,甚至禁止。這份文件的重點主要是為了釐清價值與原則,還有回答這麼做的原因。
十一月發布產品設計藍圖
進入 11 月,OpenAI 發布「Introducing the Teen Safety Blueprint」,將前述政策立場延伸為一套可落實於產品與制度設計的整體框架。這份青少年安全藍圖並非僅針對 ChatGPT,還試圖為整個 AI 產業提供一套可參考的安全設計方向。
該藍圖歸納出三大核心重點。首先是適齡設計,主張 AI 產品不應預設所有使用者都有同等的理解力與判斷力。其次是安全機制的演進,內容包括年齡辨識、家長監控功能及風險評估。最後則是跨界合作與透明度,強調守護青少年的安全需要家長、研究人員及政策制定者共同制定標準。此階段雖聚焦在執行方法,但本質上仍屬於訂定策略與產品發展的方向。
十二月落實模型行為規範
12 月 18 日 OpenAI 發布「Updating our Model Spec with Teen Protections」,首次將青少年保護原則正式寫入用來規範AI 模型回應行為的核心文件 Model Spec中,直接成為模型行為的約束條件。
本次更新的重點包括引入 U18 原則,也就是當系統判斷使用者可能未滿 18 歲時,就必須以安全為最高優先,採取更加保守的回應策略。其次是高風險情境的回應限制,對於關於自傷、危險行為或不適當角色扮演的內容,模型會傾向拒絕回應,並引導使用者在現實世界中尋求支持。最後是互動語氣與透明說明,模型必需以尊重且非操控性的語氣與青少年互動,並在限制內容時清楚說明原因,而非以模糊方式帶過。
與之前相比,這次的最大差異在於直接影響 AI 在實際對話中的行為,而非僅止於原則或設計方向。
從理念到執行的分工結構
綜合來看,OpenAI 這一連串舉措並非各自獨立。9 月先定義價值與取捨,11 月提出產品與制度的實作藍圖,12 月將安全原則寫入模型行為規範。這樣的演進顯示 OpenAI 不斷嘗試回應外界對於 AI 安全是否只停留在口頭承諾的質疑,透過 Model Spec 的修訂,讓安全原則成為模型本身必須遵守的規則。
未來觀察重點
CyberQ 未來仍有幾個關鍵問題值得持續關注,包括年齡識別準確性、誤判風險,以及這些規範在實際大規模使用下的穩定性。12 月 18 日的這次更新,已讓青少年安全從政策宣言正式跨入模型行為層級,也為後續監管與產業標準立下重要先例。
首圖及配圖由 Nano Banana AI 生成











