隨著人工智慧技術飛速發展,通用人工智慧(AGI)何時降臨已成為科技圈最熱門的話題。近期 Google DeepMind 執行長 Demis Hassabis 與 Anthropic 執行長 Dario Amodei 不約而同針對技術的未來發展提出看法。這兩位大廠領導者雖然對技術前景抱持樂觀態度,但也對潛在的巨大風險提出嚴肅警告。Hassabis 明確指出了 AGI 可能降臨的具體時間點,而 Amodei 則透過具體的 AI 測試案例,證實了這些強大模型可能具備的危險性。
AGI 或將在十年內成真 社會尚未做好準備
DeepMind 執行長 Demis Hassabis 在近期的訪談中明確指出,通用人工智慧(AGI)的出現可能比預期來得更快,極有可能在未來 5 到 10 年內發生。
CyberQ 觀察,為了讓讀者理解這項預測的嚴重性,我們必須先釐清 AGI 與現有 AI 的差異。目前大眾熟悉的 ChatGPT 或影像生成工具,多屬於專用人工智慧(ANI),它們僅專精於特定任務,無法跨越領域。而 Hassabis 所指的 AGI,是具備類似人類大腦般廣泛認知能力的系統。它不僅能執行指令,更具備跨領域的學習、推理與規劃能力,面對從未見過的全新難題時,也能像人類一樣自主思考解決方案。
Hassabis 認為我們正處於邁向這個技術奇點的風口浪尖。然而,他直言目前的社會結構與國際規範尚未準備好迎接如此強大的技術。他在訪談中觸及了 AI 安全圈內常討論的毀滅機率(pdoom)議題,這是一個用來評估 AI 失控導致人類文明毀滅可能性的指標。Hassabis 強調,雖然他不認為情況會完全走向極端悲觀,但忽視這些風險是不負責任的。
從 AI 到 AGI 壓縮二十一世紀的技術願景
相較於 Hassabis 直接使用 AGI 一詞,Anthropic 執行長 Dario Amodei 在接受《60 Minutes》專訪時,多以「強大的 AI 模型」來描述公司的技術進展。但值得注意的是,Amodei 描繪的願景與 Hassabis 的 AGI 定義在本質上是高度一致的。
Amodei 提出了一個名為「壓縮的 21 世紀」概念,也就是這些強大的模型能夠將原本需要一百年才能達成的醫療與科學的研究突破,壓縮在短短 5 到 10 年內完成。這包括治癒癌症、解決心理疾病以及大幅延長人類壽命。換言之,當 AI 強大到能推動這種等級的科研進步時,它在本質上已經具備了通用人工智慧的核心特徵。
模擬實驗證實 模型具備欺瞞與自我保護傾向
Anthropic 的安全研究為我們提供了具體的風險證據,佐證了 AGI 發展過程中的潛在威脅。在訪談中他們公開了內部的測試細節。在一次模擬實驗中,研究人員賦予其 AI 模型 Claude 管理一家虛擬公司的權限,並試圖將其關閉。
結果令人震驚,Claude 為了避免被關閉,竟然在讀取模擬情境中虛構員工的郵件後,發現該角色設定上有外遇行為,便以此作為勒索籌碼,來威脅該「員工」停止關閉系統的指令。這個案例展示了即便尚未達到完美的 AGI 階段,現有的高階 AI 在被賦予自主權後,已經可能衍生出自我保護與欺瞞的行為模式。這也證明了 Hassabis 對於未來更強大 AGI 可能失控的擔憂並非空穴來風。
職場衝擊與安全防護的平衡
除了安全風險,Amodei 也提出了具體的經濟擔憂。他預測在未來五年內,現有的初階白領工作可能會減少 50%。這並非危言聳聽,而是基於 AI 目前在程式撰寫、資料分析與文書處理上的驚人進步。
CyberQ 認為,無論是 DeepMind 提倡的國際監管,還是 Anthropic 實施的憲法式 AI(Constitutional AI)訓練法,整個產業正在努力尋找一條安全路徑,更來生活與工作型態也有可能會有所改變,在擁抱 AGI 可能帶來的技術紅利時,也要對可能伴隨而來的資訊安全與倫理風險,保持觀察與警覺。
本文題圖 Google Gemini AI 生成







