人工智慧
生成式 AI 對 2024 年的網路資安有何意義
經過了一整年 ChatGPT 陪伴的生活之後,網路資安專家對於犯罪集團如何使用生成式 AI 來強化攻擊已經有了更清楚的認識,讓我們一起來了解生成式 AI 對 2024 年的網路資安有何意義。
2023 年,生成式 AI 一現身就立即成為媒體新寵,到了該年年底,它已經成為企業、創作者、科學家、學生以及 (不可避免地) 犯罪集團不可或缺的生產力工具。
駭客隨時都在尋找省力、高報酬的攻擊方法,而生成式 AI 正好帶來了某些重要機會。它的速度和擴充性,對於社交工程(social engineering )操縱人心與詐騙手法大有幫助,駭客可以更快、更輕鬆地從大量資料當中挖掘可化為行動的資訊。事實證明,AI 應用程式確實很容易遭到不法集團挾持與濫用,有些駭客集團甚至自己推出了不受監管的大型語言模型 (LLM) 服務。
要防範這些日益升高的威脅,企業需要窮盡各種辦法,結合更先進的資安實務和工具,再配合強大的企業資安文化,而且在應用程式開發階段就將資安融入。
生成式 AI 讓社交工程與詐騙邁入全新境界
在生成式 AI 出現重大突破之前,駭客的網路釣魚策略主要有兩種:一種是亂槍打鳥地轟炸大量目標,希望有機會騙到一些缺乏防備的使用者。另一種是對特定使用者進行深入研究,然後以手動方式發動攻擊,這是一種費力、但成功率高的方法,也就是所謂的「魚叉式網路釣魚」或稱為「網路捕鯨」。
生成式 AI 將這兩種方法結合起來,讓駭客可以很容易大量發送各種語言的針對性、零錯誤、且深具說服力的訊息。此外,更超越了傳統電子郵件與文字簡訊,加入了幾可亂真的「深偽」(deepfake) 影、音內容,對企業更加危險。
想像一下某家公司在申請金額超過一百萬美元的採購時,需要透過即時語音的方式進行認證授權。此時,駭客可以傳送一封幾可亂真的申請郵件,附上假的電話號碼讓經辦人員回撥,然後再利用深偽語音來接聽確認電話,進而完成交易認證。如果您覺得這聽起來太像是不可能的 任務的情節,其實一點也不。去年,影星湯姆‧漢克 (Tom Hanks) 就曾經出面駁斥一樁牙醫保險詐騙,歹徒使用了跟他很像的人臉和聲音來製作宣傳廣告。不過,相較於股市詐騙,或是競選與戰爭期間的假訊息行動,或是針對公眾人物的抹黑攻擊,這不過是小巫見大巫。
像這樣的詐騙,其技術門檻已隨著 HeyGen 這類容易取得又類似應用程式介面的人工智慧興起而大大降低。一些沒有程式設計知識或特殊運算資源的網路犯罪集團,現在也能產生逼真的客製化內容,讓人們幾乎無法分辨真假。
網路犯罪如何濫用生成式 AI
當公用生成式 AI 問世時,就有許多專家憂心犯罪集團會製作一些黑化版的 GPT 模型或其他類型的生成式 AI 引擎來產生「無敵」的惡意程式。這樣的需求肯定存在,而且也有人嘗試過,但截至目前為止,似乎還是停留在紙上談兵。在 2023 年吸引不少關注的 FraudGPT,對犯罪集團來說基本上只聞樓梯響、不見人下來,到目前為止還是只有宣傳和展示影片。至於去年年底左右吸引不少鎂光燈的 WormGPT 工具,才推出沒幾天就因媒體的關注而被迫束之高閣。
網路犯罪論壇上有關「如何自己打造惡意 GPT」的討論,大多只在分享一些利用現有 LLM 基礎架構 (如 LLaMA) 來獲得優勢的祕訣和技巧。今日,要開發一個犯罪專用的大型語言模型 (LLM),對犯罪集團來說也許太耗費成本,而且需要投入大量心力,還不如直接挾持可公開取得的 AI 應用程式,比方說利用規則或限制上的弱點來產生違反原本用途的輸出結果。
儘管如此,惡意 LLM 的開發工作在 2024 年可能還是會延續下去,並伴隨著一些用來開發惡意程式和處理其他工作的新工具。隨著資訊竊盜越來越多,一種全新的網路犯罪服務:偵查服務 (Reconnaissance as a Service,簡稱 ReconaaS) 有可能崛起。有些駭客會使用 AI 從偷來的資料當中擷取出個人資訊,然後賣給其他網路犯罪集團,讓他們從事針對特定對象的攻擊。
生成式 AI 已經加快了駭客競相挖掘開放原始碼軟體漏洞的速度,他們現在可比較某個軟體不同版本的原始程式碼,這不僅能幫助他們找出已揭露的漏洞,還可發掘未揭露的漏洞。
眾所周知,駭客已經開始攻擊 AI 應用程式本身。最早嘗試的作法是在 AI 系統中輸入惡意查詢來讓 AI 出現不當行為,但事實證明這些攻擊相對容易防範,只要不針對使用者想輸入的內容來訓練公用 AI 工具即可反制。最近網路犯罪論壇上的熱門話題是如何挾持及破解應用程式,顯然駭客在這方面有著濃厚的興趣,這部分的技巧在 2024 年或許會取得進展。
防禦策略必須演進才能對抗生成式 AI 的威脅
儘管 AI 讓網路犯罪更加頻繁,但只要企業做好因應措施,還是有機會戰勝駭客。企業需要結合零信任方法與 AI 來讓資安變得更強大。
「零信任」正如其名,就是假設一切都不可信任。身分必須先經過認證,同時,唯有必要的人員和裝置可以存取敏感的資訊或流程,而且要符合其定義的目的,並且在特定的時間內存取。如此就能縮小攻擊面,並拖慢駭客的速度。
若套用到前述假冒電子郵件採購訂單使用深偽語音(deepfake voice)來進行認證的案例,零信任認證就能禁止使用者回撥郵件訊息中隨附的電話。再者,使用者應該已經有一份預先建立的「安全電話名單」,而且/或者還需要經過多名利益關係人共同核准才能驗證這筆交易。此外也可使用代碼來溝通,進而增加一道驗證。
即使今日的網路釣魚攻擊偽裝太過精良,光靠使用者自身的力量不容易分辨真偽,但網路資安意識訓練仍是不可或缺,只不過得要再搭配一些防禦技術。此時就能利用 AI 和機器學習來偵測訊息中的情緒和語氣,或者針對網頁本身進行評估,來預防那些使用者可能無法分辨的詐騙。
將生成式 AI 用於善良用途
生成式 AI 有助於提高網路資安團隊的工作速度和生產力,以自然語言方式提供容易理解的警報說明,解讀腳本與指令,讓不熟悉專業搜尋語言的分析師也能執行精確、有效的查詢。對資安團隊來說,它有加分的作用,可在事件發生時自動啟動資安回應教戰手冊。
此外,AI 驅動的自動化,也可消除製作事件報表時的負擔,這對一些受監管的產業來說非常重要,例如:幫忙追蹤問題與產生報表、將報表翻譯成多國語言、從文件當中快速歸納出可化為行動的資訊。
生成式 AI 還可用來改善風險的優先次序判斷,提供客製化的風險防範與威脅回應建議,進一步強化矯正與回應。它甚至能偵測使用者正在使用何種 AI 應用程式、在哪裡使用,以及如何使用。
既然直接將 AI 應用程式禁掉不切實際,企業就要能夠加以管理。開發人員在開發這些應用程式時,也要將安全和防止濫用列為優先。
生成式 AI 若能與網路資安平台深度整合,例如延伸式偵測與回應 (XDR),其效益將會加倍,從端點到雲端提供跨防護層的監測。
最後,生成式 AI 有助於強化主動式資安防禦,實現動態、客製化、針對特定領域的入侵與攻擊模擬。正規的「紅隊演練」通常只有口袋很深大型企業才能辦到,但生成式 AI 有機會讓這項作業平民化 ,讓任何規模的企業都能執行動態調整的事件教戰手冊來演練各種技巧。
讓生成式 AI 成為網路資安的助力
駭客必然會想盡辦法將生成式 AI 變成他們的優勢,過去一年,他們也展現了這樣的企圖 (儘管還在摸索)。然而,若企業能將生成式 AI 與零信任資安框架、適應性實務方法、具備資安意識的企業文化結合,那同樣也能建立強大的主動式防禦。