何謂 AI?

人工智慧 (AI) 是一種能讓電腦與機器模仿人類學習、理解、解決問題、決策、創造、獨立行動等各樣能力的技術。

AI 用在哪裡?

企業使用 AI 來驅動創新、支援團隊,並在各方面簡化營運。視其建置方式而定,AI 通常會搭配預測、數據分析、機器學習 (ML) 以及其他功能。AI 的應用案例包括但不限於:

  • 使用 AI 資料中心來訓練 AI 模型。
  • 透過聊天機器人來為客戶提供協助。
  • 簡化供應鏈管理流程。
  • 將重複性工作自動化來節省資源和人力。
  • 協助發想與創意激盪。
  • 縮短查詢回應時間。
  • 加速決策流程。
  • 透過 AI 輔助的最佳化與自動化來降低成本。
  • 翻譯文字、音訊和演講。
  • 快速整理研究發現與統計數據。

AI PC

人們用來驅動創新、簡化流程以及管理日常作業的硬體正在改變。一些先進的架構,如精簡指令集 (RISC) 電腦 (如 ARM 架構) 與複雜指令集 (CISC) 電腦 (如 x86 架構) 各自在電腦產業扮演著關鍵的角色。隨著 Apple、Microsoft、Broadcom、Intel 以及其他公司紛紛投入大筆資金在 AI 技術,我們已經進入了一個 AI PC 的時代。這些系統是專為處理各種 AI 工作而最佳化,包括但不限於:語音辨識、自然語言處理,以及機器學習。AI 專用的硬體能在裝置上加快這些工作,支援強大的 AI 推論,甚至在一般的電腦上也能執行 AI 訓練。

AI 資料中心

為了支援深度學習並訓練 AI 模型,企業正在利用 AI 資料中心更大的效能與吞吐量。這些資料中心擁有大量的硬體設備,包括圖形處理單元 (GPU) 以及 AI 加速系統。根據 Forbes 近期一篇探討這類資料中心的文章指出,它們提供了龐大的運算能力、消耗大量的電力,甚至需要最先進的冷卻系統。

何謂 SOC AI?

資安營運中心 (SOC) 可利用 AI 來更有效率地分配資源並防範風險。透過深度學習、自動化及其他功能,SOC 能更快發掘風險並加快回應時間,特別是如果能採用一套整合各種解決方案與 AI 來進一步簡化日常營運的網路資安平台的話。

AI 資安風險

隨著 ChatGPT、OpenAI 及 Microsoft Copilot 等 AI 工具變得容易取得,駭客也不斷試圖取得敏感的資料。有時候駭客攻擊 AI 工具的目的,是要誘導 AI 做出違背其正當用途的行為。AI 的主要資安風險包括:不受控 AI、詐騙自動化,以及資料主權問題。

企業不僅要跟上網路駭客的腳步,還要搶先一步確保自己採用具有風險意識並符合法規的 AI 技術。而培養對 AI 資安風險更深刻的認識是這項策略必要的一環。

AI 公司政策

一套具備風險意識的政策,將能提供正確的 AI 使用指引,成為員工很重要的參考依據。確保政策能夠落實並隨時更新,將有助於降低您企業的風險。擁有適當的政策與程序對於符合法規並維護資料安全不可或缺。了解來自政府與產業監理機構的範例並與同業合作,可幫助您擬定屬於自己的 AI 政策。

深偽 (Deepfake)

隨著生成式 AI (GenAI) 技術持續進步,深偽也越來越逼真。由於駭客會利用這些偽造內容來讓個人或團體誤以為一些 AI 生成的圖片、影片或文字內容是真實而值得信賴的,所以深偽是一種相當嚴重的資料安全風險。不論 AI 是否扮演任何角色,駭客的意圖都是想要誤導、竊取或詐騙。

如何保護 AI

了解 AI 環境如何運作,包括 AI 如運用甚至保存資料,對於做出有效的資安回應很有幫助。正當企業越來越常運用 AI 來協助發想和創新,駭客也盯上了 AI 的漏洞。威脅的情勢會隨著 AI 的發展而不斷演進,企業應盡可能主動保護自己的 AI 環境。

開放網站應用程式安全計畫 (Open Web Application Security Project,簡稱 OWASP) 對 AI 資安的建議

  • 建立 AI 治理。
  • 透過 OWASP 資產與控管 (及 AI 防護產品) 來擴大您的資安實務。
  • 確保任何您採用的 AI 供應商都已建置適當的資安控管。
  • 盡可能減少資料與權限來限制您 AI 環境的衝擊。
  • 透過速率限制來避免失控的使用情況以及阻斷服務攻擊。
  • 建立監督流程 (包括人員監督) 來作為防護。

此外,如果您正在開發自己的 AI 系統,不論您是否自己訓練模型,OWASP 都建議以下幾點:

  • 將您的資料與 AI 開發工程融入您的軟體安全開發實務當中。
  • 實施適當的流程與技術控管 (認識 AI 威脅)。

請閱讀 OWASP 的 AI 資安概論來取得更多詳細資訊與技術洞察。

機器學習 (ML) 資料安全

隨著 GenAI 利用 ML 功能來分析資料並輸出創造性內容,新的風險也隨之而來。全球網路資安聯盟 (Global Cybersecurity Alliance,簡稱 GCA) 在一篇有關 ML 資料安全的文章中指出:「機器學習資料的安全還必須考量到資料傳輸與處理過程中的完整性,遭到篡改的資料將使得模型輸出偏差的內容,如此可能導致決策失準或偏差,甚至帶來深遠的不良後果。」

該文章提出了以下幾點主動防範方法

  • 存取控管與認證。
  • 定期稽核與監控資料。
  • 資料匿名化和偽名化。
  • 確保分享方式的安全。

何謂 AI 模型?

AI 模型是一種由架構和參數值所組成的結構,能讓系統執行某些工作,例如:執行預測或生成內容,也就是所謂的推論。這些工作包括:回答問題、偵測資料中的模式、辨識行為等等。AI 模型通常需經歷一段訓練過程來找出最佳的參數值以產生有效的推論。

視您企業的需求、目標、法規遵循要求、預算等因素而定,您可考慮建置的 AI 模型很多。不過,值得注意的是每一種 AI 模型都有其天生的風險,而且 AI 模型也有很多不同種類可選。

AI 模型的種類

狹義 AI/傳統 AI

我們今日絕大部分建置及使用的 AI 技術都是所謂的「傳統 AI」或稱為「狹義 AI」(narrow AI)。雖然它有能力根據使用者的詢問和需求而調整,但卻只能執行預先設定的工作,而且經常只在單一專業領域。狹義 AI 的範例包括:客戶支援網站所使用的文字聊天機器人、Siri 或 Google Assistant 之類的虛擬助理,以及具備自動翻譯功能的語言偵測軟體。

根據 IBM 的「Data and AI」團隊表示,狹義 AI 根據其功能主要分成兩大類別:

被動式機器 AI

被動式機器 AI (reactive machine AI) 正如其名,只能使用您當下輸入的資訊。它能與其所在環境和使用者積極互動,但不會記住它所收到的內容,因此無法自我改良。影音串流與社群媒體平台內建的內容推薦功能,就是使用被動式機器 AI,還有一些專門針對即時資料進行預測分析的工具也是。

有限記憶 AI

有限記憶 AI (limited memory AI) 會利用過去和現在的資料來提供更好的協助。所謂「有限記憶」是指它不能記住您提供的全部資料,基本上只具備短暫記憶。不過它會利用它所能取得的資料來持續改善其效能與能力。換句話說,其所在的環境以及您的輸入,都會訓練它做出更好的回應。例如,虛擬助理就屬於這一類。

先驅 AI

儘管狹義 AI 已經可以應用在各種領域,但先驅 AI (frontier AI) 模型 (一般稱為 GenAI) 也獲得了不少關注和投資。這類 AI 更為先進、更具實驗性質,而且是針對未來設計的 AI 模型。GenAI 正如其名,是為了生成內容而設計,不論是根據使用者輸入的提示或現有的資料,最有名的例子就是 GPT-4 和 Google Gemini Ultra。

根據美國史丹福大學的「2024 年人工智慧指數報告」(Artificial Intelligence Index Report 2024) 估計,先驅 AI 的訓練成本已到達前所未有的規模,光 Google Gemini Ultra 就耗費了 1.91 億美元。此外,該報告還指出,業界是先驅 AI 研究的一大動力,光 2023 年就創造了 51 個「著名的機器學習模型」,相較於學術界只有 15 個。不過,其中有 21 個模型是產學合作的成果。該報告還指出,儘管 2022 年的民間投資減少,GenAI 所募到的資金還是飆到 252 億美元,而且「所有主要機構 […] 都募到了大量資金。」 

AI 模型總結

「傳統 AI 擅長找出模式,生成式 AI 則擅長創造模式。傳統 AI 可分析資料然後告訴您它看到什麼,但生成式 AI 則可以利用同樣的資料來創造出全新的東西。」Bernard Marr 在他的文章「生成式 AI 與傳統 AI 的差異:人人易懂的簡單說明 (The Difference Between Generative AI and Traditional AI: An Easy Explanation for Everyone) (Forbes) 當中一語道破。他繼續說道:「生成式 AI 與傳統 AI 在我們的未來當中都將扮演重要角色,各自解放不同的可能性。對於想要在我們快速變遷的數位世界隨時保持領先的企業和個人來說,擁抱這些先進技術是很重要的關鍵。」

其他 AI 相關術語

演算法

演算法是一整套用來解決某項問題或執行某項工作的每一道步驟,也就是要讓電腦執行的一系列動作。

深度學習

深度學習是 ML 的一種,利用模擬人類大腦神經網路結構和功能的演算法,從大量資料當中學習。「深度」一詞指的是神經網路中有非常多層的人工神經元。深度學習擅長影像和語音辨識、自然語言處理以及複雜模式的辨識等這類工作。

AI 代理

AI 代理 (AI agent) 是一種可感知其所在的環境並採取行動來提高其目標達成率的系統。它使用感測器來蒐集資訊,並透過演算法來做出決策,然後採取行動並評估效果,通常能隨時間演進而學習和適應。

合成媒體

合成媒體 (synthetic media) 是指使用 AI 技巧 (如深度學習) 來生成或修改的內容,包括逼真地模擬真實世界元素所生成的圖片、影片及語音,合成媒體讓真實與模擬的界線越來越模糊。

大型語言模型 (LLM)

LLM 指的是擁有數十億個參數並使用大量資料來執行訓練的 AI 模型 (如 GPT-4),可以產生類似人類撰寫的文字內容,使得各種語言相關的工作與應用變得可能。轉換器 (transformer) 是目前 LLM 最主流的架構。

基礎模型

這通常是一種使用廣泛資料訓練出來的深度學習模型,可進一步針對不同的工作再進行調校。LLM 就是基礎模型的範例,能夠進一步針對語言、程式碼、影像、音訊而加以特化,能結合不同的形態,或同時具備多重形態。基礎模型也可針對特定應用來做微調 (fine-tune),例如聊天機器人。

相關研究

相關文章