隨著生成式 AI 技術急速成長,OpenAI 的文字生成影片模型 Sora 已經展現了驚人的擬真度,根據NBC NEWS報導,有心人士卻以此生成假影片來操作資訊戰。近期社群平台上流傳多段逼真的影片,內容宣稱是烏克蘭士兵在鏡頭前崩潰痛哭,控訴自己年僅 23 歲就被強行徵召送往與俄羅斯作戰的前線。
這些影片透過 TikTok 和 X 等平台迅速傳播,試圖打擊烏克蘭軍隊的士氣並混淆國際視聽。然而經過專家與事實查核機構的驗證,這些影片全數皆為 AI 生成的虛假內容,背後更是隱約可見俄羅斯宣傳戰的影子。
影片內容破綻百出卻仍獲得百萬次觀看數
這些影片初看會覺得極具說服力,但經過仔細檢視仍可發現多處破綻。首先是法律事實的不符,烏克蘭目前的徵兵年齡下限已調整為 25 歲,而影片中主角卻自稱 23 歲。
其次,透過臉部辨識技術分析,發現影片中所稱的「烏克蘭士兵」,面孔與一名俄羅斯籍的網路直播主高度相似,顯示製作者可能使用了現有的人物影像作為 AI 生成的基礎素材。此外,部分影片在初期傳播時甚至還保留了 Sora 生成時會自動壓上的浮水印,雖然有部分被後製移除,但仍留下了數位足跡。
儘管破綻明顯,這些影片利用了人們的同情心,在短時間內獲得了數百萬次的觀看與轉發。
AI 大廠面臨的監管挑戰
OpenAI 作為技術開發的一線主流 AI 平台,儘管在 Sora 發布時曾強調會採取安全措施防止濫用,例如禁止生成特定公眾人物或暴力內容,但此次事件顯示目前的防護機制仍有漏洞。這類 AI 生成的假訊息不僅成本低廉、速度快,更難以被傳統的審查機制攔截。對於科技大廠而言,如何在技術創新與防止惡意濫用之間取得平衡,確實是一大難題。
此事件凸顯了因生成式 AI 的技術假可亂真,目前已進入「影像可信度危機」的新階段,未來不僅是文字與照片,連影片本身都可能無法再作為可靠的事實證據,這對於新聞、戰爭報導與民主社會的資訊判斷能力帶來長期挑戰。
CyberQ 也提醒大家,在面對網路上流傳的影像資訊時,必須保持更高的警覺性,避免成為虛假訊息的傳播幫兇。換言之,眼見不一定為憑,查證來源才是對抗資訊戰的最佳防禦。
而不論是釣魚信件、詐騙連結、木馬訊息等等,我們在資安領域常見的EDR、XDR、MDR皆有相關的防禦措施,但判斷真偽,以及你在手機上使用類愈 Whoscall 的軟體來檢查簡訊連結和過濾詐騙電話,都是對自身與公司有效的防禦措施之一,這時代需要區域聯防和多重防禦工具的搭配使用。
首圖由 Nano Banana AI 生成







