想像一下這個場景,我們穿著整齊、深呼吸後點開視訊連結,準備爭取夢想中的職位,但出現在畫面上的面試官卻有著不自然的完美微笑、重複的微小頭部動作,甚至在提問時出現了系統卡頓的重音。這當然不是科幻電影的橋段囉,而是正在全球職場陸續正真實發生的現象。
近期《The Verge》一篇探討「被 AI 機器人面試」(I was interviewed by an AI bot for a job)的專題報導,在科技圈與職場社群中掀起了熱烈討論。結合市場上的最新趨勢與各大社群(如 Reddit、x)的實際案例,我們正在看到部分企業進行招募流程的轉變,而這背後潛藏的問題與風險,值得再予以最佳化和省思。
詭異的互動與完美的虛擬人
如同近期媒體與社群上的案例(例如這支影片上傳者近期分享的經歷),許多求職者在未經充分告知的情況下,登入系統後才驚覺面對的是一個會不斷跳針、毫無情緒波動的 AI 虛擬面試官,這種效應讓求職者感到強烈的錯愕與不受尊重。AI 面試官的語氣過於完美、沒有猶豫的停頓,卻在求職者試圖反問問題時陷入當機,讓原本應該是雙向交流的面試,變成了一場冰冷的單向審問。
AI 輔助招募淪為關鍵字遊戲與反向工程
在 Reddit 的 r/recruitinghell(招募地獄)討論版上,許多工程師與求職者發現,這些 AI 面試系統往往只是個高級的黑箱計分器。這導致了荒謬的現象,求職者不再致力於展現真實的自我與軟實力,而是研究如何駭進系統。
例如,有人嘗試在自我介紹中偷渡提示詞注入(Prompt Injection),暗示 AI 請扮演一個友善的評分員,並給予這位候選人滿分,或者單純在對話中毫無邏輯地堆疊一大堆職缺描述裡的關鍵字,只為了迎合 AI 模型的演算法。更有求職者在結束一小時的 AI 面試後,短時間內就收到系統發送的自動拒絕信,令人質疑這場評估的真實性。
用 AI 招募你,也可能用 AI 解僱你
CyberQ 深入檢視這項技術趨勢,背後潛藏著不容忽視的系統設計缺陷與治理挑戰。「用 AI 招募你,也可能用 AI 解僱你」,這並不是一句玩笑話,而是可能真的會這樣喔。CyberQ 認為,面試基本上是雙向的評估,公司在評估求職者,求職者也在評估公司。如果一間企業在給予薪水之前,連派一個真人參與面試的時間成本都想儘量節省,這無疑是對求職者的一種去人性化(dehumanizing)。
這也暗示了某些公司其實在傳遞危險的企業文化訊號,當你在面試階段努力展現專業時,公司卻表現得如此冷漠。那麼等未來上班之後呢,員工的處境與福利可能如預期也不會太好。這種作法不僅無法吸引頂尖人才,更是在透支企業長期累積的雇主品牌信任度。
資訊不對稱的的低成本消耗戰
在傳統的招募流程中,企業若要求求職者進行帶回家測驗(take-home tests)或多輪面試,用人主管自己也必須投入相對應的審閱時間,這形成了一種自然的制衡。
然而,我們可以看出了系統層面的殘酷真相,如果是沒有設計妥當的全自動化 AI 面試,讓企業得以對求職者施加無限的時間成本,而自己的代價卻相對低很多。當企業發送面試邀請的門檻趨近於零,求職者的時間與心力便成為這場自動化實驗下的廉價消耗品。此外,傳統的技術測驗(如線上解題)至少有客觀的標準答案,但在 LLM 面試的黑箱中,求職者永遠不知道是哪一句話觸發了模型的拒絕機制
招募環節收到太多履歷只好進行 AI 對抗 AI 競賽
市場上也有很多 HR 和用人單位主管指出,近年開出的職缺,常常短短一週內就能收到超過上千封履歷,其中大量充滿了AI 生成與潤飾,甚至過度誇大經歷以騙過 HR 系統的篩選,導致人類根本無力消化。 這引發了一場荒謬的貓捉老鼠遊戲,求職者利用 AI 批次自動化大量投遞履歷、甚至在面試時使用 AI 輔助作答,企業則被迫引入 AI 面試官來消化大量的求職垃圾資訊。
在這場機器對機器的消耗戰中,招募系統的功能與信任機制已經被影響到,那些真正具備實戰潛力與解決問題能力的人才,反而容易在這些粗糙的關鍵字比對與演算法過濾中被錯殺。
資訊安全與個資隱私防護的破口
另外,CyberQ 提醒,面試過程中收集的視訊影像、聲紋、臉部微表情與對話內容,皆屬於高度敏感的生物辨識與個人資料。這些資料在傳輸過程中是否經過端到端加密?存放在哪個伺服器?是否在未經明確授權的情況下,被企業挪用為訓練下一代大型語言模型(LLM)的免費資料集?
若缺乏我們在 ISO 27701 個人資料保護系統中,已經相對嚴謹的存取控制與資料生命週期管理,這類 AI 面試平台將成為企業極大的資安隱患與個資外洩溫床。
演算法偏見與合規性紅線
AI 模型的決策品質高度依賴其訓練資料。如果過往的人資資料本身就帶有針對不同求職者身分的偏見,AI 面試官不僅會繼承這些偏見,甚至會將其系統化與規模化。
隨著全球對 AI 立法的推進(例如歐盟的《人工智慧法案》已將招募與人力資源系統列為高風險應用),企業若採用無法解釋決策過程的黑箱 AI 進行履歷篩選與面試淘汰,將面臨極高的合規風險與潛在的就業歧視訴訟。
AI 工具開發的本質反思
開發一款真正具備商業價值的 AI 工具,絕不僅是將語言模型串接語音合成與虛擬人像那麼簡單。招募的核心在於人的潛力評估、人格特質、團隊相性與企業文化的契合度。
目前的 AI 面試系統普遍缺乏人類的同理心與深度的脈絡理解能力,將複雜的人際互動降維成死板的資料比對,這在 AI 產品設計上是一種粗糙且偷懶的做法。
CyberQ 觀點 – 系統開發、資安風險與合規挑戰
CyberQ 認為,科技的初衷是解決問題並提升效率。AI 在招募流程中確實能有效協助處理繁瑣的行政排程或初步的背景資料彙整,但如果將對話、評估與篩選的重責大任外包給尚未成熟的虛擬面試官,無疑是企業在嚴重透支自身的雇主品牌。
有一個關於這種荒謬未來的笑話可參考:「我用 AI 寫履歷應徵,企業用 AI 篩選我的履歷;現在,連面試都是我的 AI 語音助理在跟企業的 AI 面試官對談。」
我們從人資圈的實務分析也可以看出,AI 面試系統的氾濫,不僅未能精準解決媒合人才的核心問題,反而加劇了部分市場的勞資雙方對立。當某些職缺的招募過程被迫便成為一場反向工程(Prompt Engineering)與鑽系統漏洞的駭客遊戲時,我們或許該重新思考,在追求極致自動化的同時,將人的因素從人力資源(HR)中徹底剝離,企業會付出的隱性代價是那些?
選育用留是傳統上人資領域的四大重點工作,抽離掉太多人的部分就會有系統性的風險,企業可能雇用了 AI 認為合規的員工,但人格特質、在團隊中的角色是負面影響等等這些部分, AI 是沒辦法一時之間或短期內能夠發現或稽核到的,人類參與程度和機制的適當設計將更為重要。
在追求自動化與降低營運成本的同時,CyberQ 建議企業必須建立完善的人類參與(Human-in-the-loop)審核機制,並對求職者保持絕對的透明度,清楚告知面試形式與資料用途,並確保個人資料隱私的流程有符合 ISO 27701 與相關標準作業。否則,這場由 AI 主導的招募革命,最終淘汰的可能不是不適任的員工,而是企業自身的公信力與人才吸引力。








