甚麼是人工智能?

人工智能科技可以讓電腦及機器模擬人類的能力,如學習、理解、解決難題、作出決定、創意及獨立行動

人工智能用在何處?

機構可以利用人工智能協助推動創新、協助團隊及以不同方式精簡運作。視乎如何應用,人工智能通常包含預測性分析、機器學習及其他功能。人工智能的應用包括但不僅限於以下範圍:

  • 利用人工智能數據中心來訓練人工智能模型
  • 在聊天機械人的協助下協助顧客
  • 精簡供應鏈管理程序
  • 自動化重複的工序以釋放資源及團隊勞動力
  • 協助開發構思及創意激發
  • 減低查詢的回應時間
  • 加快決策過程
  • 透過人工智能最佳化及自動化降低成本
  • 翻譯文本、音訊及/或演說
  • 快速歸納研究結果及數據

人工智能個人電腦

我們日常用作驅動創新、精簡流程及管理運作的硬件已經改變。先進架構,例如通常被稱為 ARM 架構的精簡指令集電腦(RISC)及包括 x86 的複雜指令集電腦(CISC)在電腦業的角色都舉足輕重。隨著 Apple、Microsoft、Broadcom、Intel 及其他電腦公司都大幅投資在人工智能科技之上,我們已進入人工智能個人電腦的年代。這些系統都被優化來處理廣泛的人工智能驅動任務,包括但不僅限於聲音辨識、自然語言處理及機器學習。人工智能專用硬件可以在裝置上加快處理很多任務,容許強大的人工智能推理及訓練一般機器。

人工智能數據中心

要推動深層學習及訓練人工智能模型,機構應妥善利用人工智能數據中心的效能及擴展的吞吐量,這些中心由大量硬件經成,包括圖形處理器及人工智能加速系統等。Forbes 最近一篇文章詮釋了其功能,指出它們提供「巨大的運算力」,整體消耗大量能源甚至需要最先進的冷卻方案。

甚麼是保安運作中心人工智能?

保安運作中心可利用人工智能來更有效分配資源及緩解風險。透過深層學習、自動化及其他功能,它可以加快風險辨識及回應措施,更可以使用一個網絡保安平台來合併不同方案及將人工智能整合以進一步精簡運作。

人工智能保安風險

隨著 ChatGPT、OpenAI 及 Microsoft Copilot 等工具日趨普及,歹徒亦會持續利用這些工具取得敏感資料。在一些案件中,他們會操控人工智能工具來改變其原有用途。主要的人工智能保安風險包括叛逆人工智能、詐騙自動化及資料管治不足。

機構不應只跟上歹徒的步伐,而應走在他們前面,以確保風險意識及合規採用人工智能科技。而深入了解人工智能保安風險是這策略的重要一部份。

人工智能公司政策

風險意識政策提供正確使用人工智能的指引,是員工的重要參考,而確保遵循及持續更新此政策可協助降低機構的風險。擁有合適的政策與程序,對合規及維持有效資料保安至為重要。在制定人工智能政策時,可參考政府或業界監管機構提供的案例,或是向同業取得協助。

深偽(Deepfakes)

隨著生成式人工智能科技的進步,深偽亦已更容易取信於人。歹徒會利用它來誘騙個人或團體相信某些影像、影片或文字是真實及可信的,從而對資料帶來保安威脅。無論人工智能在深偽擔任甚麼角色,歹徒的目的都是一樣的,就是要誤導、盜竊及/或詐騙。

如何保護人工智能

了解人工智能如何運作,包括它如何利用及保存資料,可以協助作出有效的網絡保安回應,當機構持續利用人工智能創新時,歹徒亦會相應地利用所出現的漏洞。在威脅情勢因人工智能而不斷演變時,機構必須採取主動步驟保護其人工智能部署。

開放網絡軟件安全計劃(OWASP)就人工智能提出的建議

  • 實施人工智能管治
  • 透過 OWASP 資產及管控(及人工智能防護方案)提昇保安實務
  • 確保所有人工智能供應商都實施了合適的保安管控
  • 減少資料使用及權限以限制人工智能應用的影響
  • 以速率限制來防範失控使用及拒絕服務攻擊
  • 以監督程序方式(涵蓋人為疏忽)實施額外防護

此外,在自行開發人工智能系統時,無論您是否訓練自己的模型,OWASP 都建議:

  • 將資料及人工智能工程加入至安全軟件開發實務中
  • 透過學習人工智能威脅應用合適的程序及技術管控

參考 OWASP 人工智能保安簡介取得更多資料及技術指引。

機器學習資料保安

由於生成式人工智能會利用機器學習作資料分析及創意輸出,新的風險亦因而出現。Global Cybersecurity Alliance 在一份關於機器學習保安的文章指出:「機器學習資料必須同時考慮資料在傳輸及處理時的完整性。」 「被破壞的資料完整性會扭曲輸出的模型,它會導致不準確或偏頗的決定,並可能導致深遠影響。」

文章亦提出詳細的主動行動

  • 存取管控及驗證
  • 定期資料審核及監控
  • 資料匿名化及假名化
  • 安全分享實務

甚麼是人工智能模型?

人工智能模型是一個由結構及參數數值組成的架構,讓系統可以執行如預測或產生內容等推理任務,包括回應查詢、偵測數據模式、辨識行為及其他等。人工智能模型一般通過訓練程序來學習最佳的參數數值以作出最有效率的推理。

機構可視乎需求、目標、合規要求、預算及其他因素來考慮選擇及實施理想的人工智能模型。不過,每一個人工智能模型都帶有與生俱來及程度不同的風險,亦有很多不同的人工智能模型可供考慮。

人工智能模型種類

狹義 / 傳統人工智能

現時大部份被廣泛應用的人工智能科技被稱為傳統人工智能或狹義人工智能。雖然它們可適應用戶查詢及/或需要而改動,它只能執行預定的任務,並通常只會擁有單一專長領域。狹義人工智能的例子包括在客戶支援網站的文字聊天機械人、虛擬助手如 Siri 或 Google Assistant,及擁有自動翻譯功能的語言偵測軟件。

根據 IBM 的資料及人工智能團隊,共有兩類型的狹義人工智能:

反應式機器人工智能

正如字面一樣,反應式機器人工智能只能利用現時已輸入的資訊運作,它可以與環境及用戶建立密切聯繫,但卻不能記憶所收到的資訊,亦不能自我改善。在串流及社交媒體平台的內容建議和專門設計採用實時數據作預測性分析的工具都會使用反應式機器人工智能。

有限記憶人工智能

有限記憶人工智能利用現已擁有的資料來更好幫助用戶。「有限」是指它不能無限期地擁有所提供的資料,因為它是以短期記憶運作。它能存取的資料是用作持續優化其表現及功能的,亦即是您輸入的資料可以協助訓練它作出更好回應。例如,虛擬助理就屬於此一類。

前沿人工智能

當狹義人工智能已被應用於不同環境,通常被稱為生成式人工智能的前沿人工智能模型亦備受觸目及吸引不少投資。它的設計更為先進、更創新及更著重未來發展。生成式人工智能的設計可透過輸入提示或存取現有資料來產生內容,較突出的例子包括 GPT-4 及 Google Gemini Ultra。

史丹福大學的 2024 人工智能指數報告估計,前沿人工智能培訓的開支已達到「前所未見的程度」,單是 Google Gemini Ultra 已達到 1 億 9100 萬美元。此外,報告亦指出,業界是前沿人工智能研究的主要推手,單在 2023 已製作出 51 個「值得注意的機器學習模型」,大幅拋離學術界的 15 個。同一時間亦有 21 個模型透過業界與學術界合作產生。此報告亦留意到,雖然私人機構在 2022 年減少了投資,但對生成式人工智能的投資卻增至 252 億美元,「所有主要參與者都發起了多輪集資行動」。

人工智能模型種類簡介

「傳統人工智能在辨識模式方面的表現極佳,而生成式人工智能在創建模式的表現更佳。傳統人工智能可分析資料及告訴您它看到的,而生成式人工智能則利用同樣資料創建完全新的東西。」Bernard Marr - 一文看清:生成式人工智能與傳統人工智能的分別 (Forbes)「生成式人工智能與傳統人工智能在規劃我們的未來方面都擔當重要角色,並各自打開了獨特的可能性。在快速演變的數碼世界中,抱擁這些進階科技將會是商界及個人維持領導地位的重點。」

其他人工智能相關名詞

演算法

一套按部就班的指令設計來解決問題或進行任務。它定義一系列可讓電腦執行的運作。

深層學習(Deep Learning)

機器學習的子集,是一個受人類腦部神經網絡的結構及功能啟發而成的演算法,可從大量資料中學習。「深層」是指在類神經網絡中的大量資料層。深層學習在圖像和話語辨識、自然語言處理及更複雜的模式辨識上表現優異。

人工智能代理

一個設計來感知環境及採取行動以加大達致特定目標的機會。它使用傳感器來搜集資訊及透過演算法作出決策、採取行動及評估效果,並同時學習及進行適應。

合成媒體

利用人工智能技術如深層學習製作或控制的內容,它模擬真實元素製作影像、影片及音檔,打破真實與模擬之間的界限。

大型語言模型(LLM)

大型語言模型是擁有數十億參數的人工智能模型,例如 GPT-4,它透過學習大量資料集以操控及製作擬人化文本,可應用於不同的語言相關任務及應用程式。Transformer 模型現時是大型語言模型最主要架構。

基礎模型

這是一個在廣泛數據集受訓的深層學習模型,並可按需要進行不同的任務。大型語言模型是基礎模型一個例子,它可以專門用作語言、編碼、影像、語音、組合模型或多重模型。基礎模型亦為特定應用程式作微調,如聊天機械人。

相關研究

相關資料