本文為我們與IEEE Xplore合作的獨家IEEE Journal Watch系列報導之一。隨著線上AI生成內容的興起,協助大眾辨識圖像、音訊或影片的真偽變得更加困難,也更加重要。為了解決這個問題,來自Microsoft、伊利諾州埃文斯頓的西北大學,以及協助行動主義者和記者應對AI生成內容挑戰的非營利組織Witness的研究團隊,共同創建了一個新穎的AI生成媒體資料集,以幫助建立更強大的偵測系統。研究人員在4月10日發表於《IEEE Intelligent Systems》期刊的一項研究中,描述了他們的新資料集,名為「Microsoft-Northwestern-Witness (MNW)」深度偽造偵測基準。該資料集特意採用多樣化的AI生成媒體樣本構建,以盡可能反映當前的AI生成內容生態。Thomas Roca是Microsoft的首席研究科學家,專門研究生成式AI的安全性。他表示,生成式AI所產製的媒體品質持續提升,現在幾乎任何人都可以透過手機應用程式等簡單工具,生成模仿某人聲音的語音訊息,或是模仿某人外觀的圖像或影片。這類偽造媒體的危害可能非常深遠,從身份詐欺、網路詐騙,到生成未經同意的私密影像,甚至是兒童性虐待內容。然而,AI生成器並非完美無缺。它們在生成影片、圖像或音訊時會留下「偽影」(artifacts)——微小的訊號或痕跡,這些痕跡可以證實媒體是偽造的。Roca指出:「偽影可能包括雜訊分佈、像素區塊之間的不一致、音訊訊號中的間隙以及其他不規則性。」全球各地的研究團隊一直在開發偵測器,這些偵測器本質上是經過訓練的AI模型,用於識別AI生成媒體中的偽影。然而,這一直是一場軍備競賽,看偵測器能否跟上生成器的速度,不幸的是,生成器目前仍處於領先地位。Roca表示:「確認影片、圖像和音訊的真實性對社會而言已變得至關重要,但目前的偵測系統尚未能應對這項挑戰。」他認為:「這部分歸因於這些系統的評估方式。」例如,研究人員可能會使用來自少數生成器的大量AI內容範例來訓練他們的偵測器。但這很可能會產生一個對新內容泛化能力不佳的偵測器。生成式AI的演進速度如此之快,這成為一個實際問題。因此,這些偵測系統在針對其訓練資料集或既有基準進行測試時可能表現良好,但在實際應用中卻表現不佳。Roca說:「實驗室裡的AI與實際應用中的AI不同。」這些AI生成的圖像屬於Microsoft-Northwestern-Witness基準的一部分,旨在提供更廣泛的AI媒體種類來測試偵測器。Thomas Roca、Marco Postiglione等人。為了更全面地了解這些挑戰,來自Microsoft、西北大學和Witness的專家們共同合作開發了新的MNW基準。西北大學博士後研究員Macro Postiglione表示:「學術界、業界和實務導向的非營利組織,這三方觀點的結合,創造了一種更全面的方法。我們任何一方都無法獨自完成這項工作。」這個新資料集旨在包含來自不同生成器的多樣化AI生成材料樣本,以提升偵測器在實際應用場景中的適用性。Postiglione指出,網路上的偽造影片、音訊和圖像通常會經過後製處理,例如調整大小、裁剪和壓縮。人們也可能故意操縱內容,使其更難被偵測。MNW團隊希望提供來自不同生成器並經過不同後製處理的最全面範例集,以確保該資料集能良好地代表當前的生成式AI生態。該團隊還將每年春季和秋季更新此資料集,以反映最新的生成器偽影以及用於欺騙偵測系統的技巧。研究人員承認,儘管該資料集旨在幫助開發人員對其偵測器進行基準測試,但它始終存在被用於開發新方法來規避偵測的可能性。然而,他們認為儘管存在這種可能性,解決深度偽造內容問題的需求仍然至關重要。Roca表示:「我們MNW的目標是為這項共同努力做出貢獻——提升標準、鼓勵透明度,並幫助確保隨著生成式AI的進步,我們評估真實性的能力也能同步跟上。」