過去在網路上要分辨假照片相對容易,通常只是一些拙劣的修圖痕跡。但現在AI 生成影片功能日益強大,深偽技術(Deepfake)愈來愈氾濫的時,從虛構的名人背書到偽造的災難新聞,AI 科技已經讓現實與虛構的界線變得模糊。
OpenAI 的 Sora 模型與其他開源模型讓局勢變得更加複雜,網路已充斥著各式各樣幾可亂真的 AI 影片。OpenAI 執行長 Sam Altman 表示,社會必須適應一個任何人都能製作偽造影片的世界。這代表我們除了依賴直覺,更需要一套系統性的驗證方法。以下我們將從最基礎的肉眼觀察開始,逐步深入到專業工具的檢測應用。
基礎肉眼辨識
面對一支可疑的影片,第一步建議先花費約 10 秒鐘進行初步的肉眼篩選。雖然 AI 技術進步飛快,但目前的生成模型在物理細節上仍常露出馬腳。若影片出現以下任一異常,即高度可疑:
1、嘴型與聲音不同步:觀察說話者的嘴部動作是否與語音節奏吻合,這是最常見的破綻。
2、臉部邊緣異常:注意臉部輪廓是否閃爍、模糊,或是出現類似破圖的現象。
3、背景不自然:檢查背景線條是否歪斜、反光是否怪異,或是紋理過度平滑。
4、光影不一致:確認臉部的主光源方向是否與背景環境的光影邏輯相符。
5、物理原則:注意是否有憑空消失的物體,或是違反物理原則的動作(例如奇怪的手部細節,手部的破綻也很常發現,變形與物體互動可能會違反物理原則,以及各種可能變形或異體的文字)。
揭開肉眼看不見的數位履歷
若肉眼難以判斷,我們就必須檢視影片的數位身分證,也就是所謂的「中繼資料」(Metadata)。
一般正常拍攝的影片,其 Metadata 會詳細記錄:
硬體資訊:明確標示如 iPhone、Sony、GoPro 等拍攝設備型號。
產製細節:包含連續的時間戳記、GPS 位置,以及後製軟體版本(如 Premiere、CapCut)。
而 AI 生成的影片,Metadata 經常是空白一片。
幀率(FPS):數值極不自然。
反之,AI 生成或深偽影片通常會暴露以下五大異常細節,而這些關鍵證據往往藏在深層資訊中,必須透過數位工具才能完整解讀:
1、缺乏硬體資訊:拍攝設備顯示為「unknown」,因為影片根本不是透過鏡頭拍攝的。
2、編碼器異常:真實影片使用相機標準編碼,AI 影片則常暴露異常編碼特徵,例如 FFmpeg 重建或 diffusion pipeline。
3、怪異軟體註記:深層資料中的 Encoded Application 欄位可能直接顯示 RunwayML v3.1 等 AI 生成工具名稱。
4、內容憑證 C2PA:這是最直接的證據,AI 影片可能會留下 AI generated 標記;若標記被刻意刪除,則會顯示 credentials removed。
5、時間軸錯亂:真實影片的時間軸是連續的,AI 影片的時間資訊常被清除或亂跳,甚至顯示未來時間。此外,幀率(FPS)也是判斷的關鍵,AI 生成的影片,部分因運算填補導致除不盡,會出現如12.5 FPS 這種較不自然的數值。
第一層級 使用電腦作業系統查看基礎資訊
若手邊暫時沒有檢測工具,透過電腦內建功能可以檢視最表層的資料。雖然資訊有限,但有時能看出端倪。
Windows:右鍵點擊影片選擇「內容」,在「詳細資料」中可查看拍攝工具、軟體名稱、幀率與時長、影像編碼。若完全空白則多半是 AI 生成或經過後製。
macOS:右鍵點擊選擇「取得資訊」,可查看拍攝日期、解析度、簡化版的編碼格式與檔案大小。但是資訊很少,通常很難判斷是否為 AI 生成的影片。
這些方式若看不到攝影裝置型號、軟體版本、內容憑證、完整編碼器資訊及 AI 工具痕跡,要確認真偽,建議進階使用下列工具。
第二層級 免安裝的瀏覽器檢查工具
如果您不想下載複雜的軟體,我們推薦以下兩個「直接在瀏覽器檢查」的方法,這也是目前新聞查核機構最常用的方式:
這是一款不需安裝軟體的強大工具。您可以直接貼上 YouTube、X(Twitter)或 Facebook 的影片連結,或是上傳影片檔案及截圖。工具會協助檢查中繼資料,並分析內容是否經過修改。
這是目前全球最權威的 AI 內容認證規格,這類工具不進行偵測,而是檢查「履歷」。它基於 C2PA 標準(由 Adobe、OpenAI、Google 等科技大廠推動),用來記錄影片從生成、修改到發布的所有歷程。這就像是檢查影片的護照,只要中繼資料完整,就能清楚看到影片的原始出處
判讀重點:該網站會告訴你以下關鍵資訊:
1、影片是否由 AI 生成
2、是否被修改
3、AI 標記是否被故意移除,此點是最重要的判斷依據。
4、提供完整內容歷史:如果原始影片有 AI 標記,但後來被刪掉,你會看到此項目,這是真正相機拍攝影片才會有的資訊。
這是一款使用AI偵測的工具,對一般使用者也算友善。
第三層級 需下載的專業檢測軟體
若需要更深入的證據,或是要批次處理檔案,有些軟體也能做類似功能。
這是最常用且準確的中繼資料檢視器,能撈出最深層的檔案資訊,包含完整的編碼器參數與時間軸資訊,這是 Deepfake 偵測的核心證據之一。
屬於「AI 對抗 AI」的檢測工具。Reality Defender 就像是進行「影片 DNA 鑑定」,它不依賴履歷,而是綜合分析多個層面,它能使用視覺偵測、時間序列偵測、音訊分析與AI指紋比對 (每種生成工具所留下的特定演算法) 來判斷影片狀態為真實、偽造或可疑。
前面提到的 Deepware Scanner 則是對一般使用者較友善的選擇。若這些工具都顯示結果為可疑,那麼幾乎可以確定這是一支假影片。
社群平台AI標籤機制與判斷難點
在實際查證過程中,社群平台的影片往往是最棘手的。為了應對 AI 內容氾濫,目前 Meta、YouTube 與 TikTok 都已推行不同形式的 AI 內容標籤機制,試圖透過平台自動偵測或使用者主動申報來提升透明度。
Meta (Instagram / Facebook):自 2024 年 5 月起,Meta 開始對平台上的 AI 生成或修改內容加註「Made with AI」等標籤。這包括圖像、音訊及影片,政策核心已從過去的嚴格刪除,轉向為透過標示來顯示內容屬性。
YouTube:要求創作者在上傳含有人工合成或高度修改的內容時必須進行申報,系統會提供相關選項,並在播放介面上向觀眾顯示標示。
TikTok:強制要求創作者為平台上明顯的 AI 生成內容進行標示,同時平台也正在測試自動偵測技術。依據其社群守則,未標示的真實感 AI 生成內容是被禁止上傳的。
儘管有上述機制,由於目前平台的自動標籤成功率有限,無法完美覆蓋所有 AI 內容,加上這類標籤多半依賴創作者「誠實申報」,若創作者刻意隱瞞,漏網之魚在所難免,所以我們仍然不能掉以輕心。
加上更關鍵的技術難題在於影片的「壓縮」與「清洗」。為了最佳化影片的傳輸速度,Instagram 和 TikTok 會對上傳影片全數進行破壞性的壓縮,這個過程往往會將影片原本的 Metadata(中繼資料)及 C2PA 數位憑證一併清洗。
因此,我們在下載這類平台的影片進行分析時,常會發現資料欄位一片空白,這導致「來源驗證」類型的工具失效,最終只能回歸到依賴「AI 偵測」工具或肉眼觀察。
在這個 AI 內容充斥的時期,社群平台的自動標籤機制雖然存在,但容易因資料遺失而失效。並沒有一種檢測方法能百分之百保證判別正確,建議多觀察與交互使用上述工具,建立多層次的查證習慣,才能在資訊洪流中看清真相,未來應該會有更全面且一次能辨識大部分 AI 生成真偽影片判斷的工具,且讓我們拭目以待。
首圖由 Nano Banana AI 生成







