深偽是利用生成式人工智能篡改話音、影像或文字後形成的資產,歹徒會利用它們來誘騙目標提供敏感資料。
深偽影片十分真實及可信,令人越來越難察覺它們是由人工智能製作出來的,因此已成為重大的資料保安風險。它們一般都利用受關注的知名人士,例如政界及明星,不過有時亦會針對其他個人。視乎創作者的目的,它可被用作發放虛假資訊、欺騙個人或機構,與及取得敏感資料或錢財。
深偽影片都經過複雜分析源頭內容而生成,其中重要的細節包括面部特徵與動作、尺寸、皮膚色調、頭髮與眼睛顏色及身體語言等,它們都會被輸入人工智能系統以製作出盡量接近真實的展示。同時,背景亦會被處理,深偽對象經常出現的辦公室、董事會議室或其他地方都會被歹徒利用,以取得的圖像或影像複製像真的背景。
與深偽影片的製作方法類似,人工智能亦可利用在網上找到的資料製作話音。它參考的資料包括與主角或團體有關的語音信箱訊息、電腦交談內容、播客和新聞訪問、與及真實的影片等。
製作的話音會非常接近原始素材,因此聽來極具說服力。歹徒使用的生成式人工智能會分析主角在參考素材的聲線、腔調、發言模式、清晰度、發音及話音感情。
深偽影片及話音都會使用生成式人工智能進行製作,但 cheapfakes 就完全沒有使用此類技術,而只是以人手製作內容來欺騙個人或團體。它可包含影像、話音及文字,主要利用錯覺欺騙粗心大意的對象,例如正面對緊急情況或情緒壓力的人。美國國土安全部指出,cheapfakes 早在數碼年代之前已經出現,顯示歹徒對此已有數十年經驗,其技巧亦不斷改進。
惡意人士會利用深偽及/或 cheapfakes 作不同用途,包括但不僅限於:
您可以採取多個步驟以減低被深偽或 cheapfake 針對的風險,包括以下由 National Cybersecurity Alliance 建議的措施:
零信任方式是網絡保安的重要一環,特別是在防護深偽時,這個原則應被視作減低風險的藍本。例如:
此外,專門設計的深偽檢查與偵測方案可以協助保護用戶的身份、信譽及資料。此類工具在人工智能創意不斷發展的世代至為重要,因為人類一般都很難手動偵測深偽。 2023 National Library of Medicine report 就此課題指出:「隨著語音合成演算法的改善令它更為真實,我們可以預期偵測工作會變得更加困難。」 「偵測深偽語音的難度令它有更大機會被濫用,我們因此需要防護這威脅。」