人工智慧
AI Pulse:價格衝擊、AI 代理興起、不受控的AI
本期 AI Pulse 主要探討代理式 AI:什麼是代理式 AI?它如何運作?還有,為何必須在一開始就將資安融入才能防止代理式 AI 系統在部署之後突然變壞?
不囉唆,馬上進入代理式 AI 話題
全球 AI 主要大廠在 8 月份都因為 AI 的投資金額龐大但回收疲軟而受到不少質疑,不過若要說 AI 已經無法達到原先預期的目標,還言之過早,真正的問題是下一步該怎麼走。假使產業熱潮和大眾科學的高談闊論能提供點什麼線索的話,那麼解決之道並不在於「更多的聊天機器人」,而是在於「代理式 AI」。
代理式 AI 能徹底改變使用者體驗:從應用程式導向的資訊整合,到目標導向的問題解決能力。這就是人們一直認為 AI 要做的事,雖然這樣的願景尚未實現,但每一天都更加靠近。
本期 AI Pulse 將深入探討代理式 AI,看看我們需要什麼讓願景成真,以及如何避免會「自主思考」的 AI 代理有可能變壞。
新的趨勢:代理式 AI
革命的代價不斐
今年夏天,一些主要的科技投資人一夕間突然冒出許多白髮,原因是 Microsoft、Meta 及 Google 等科技大廠已證實他們在 AI 開發計畫與基礎架構上投入了多少金額。報告指出,光 OpenAI 一家有可能今年就賠了 50 億美元來維持其開路先鋒的地位。儘管這些知名執行長承認的 AI 支出金額目前看來也許過多,但他們馬上就堅稱:支出過低的風險反而更大。
不過這些信心喊話並沒有讓某些觀察家不再發表有關生成式 AI 泡沫的言論。然而,質疑 GenAI 是否有潛力實現大家心中的夢想,就如同現代電話之父「亞歷山大·格拉漢姆·貝爾」(Alexander Graham Bell) 當年的電話原型被質疑是否能徹底取代世界的通訊方式一樣 (當然不是以那樣的形式,而是那樣的概念)。今日的大型語言模型 (LLM) 也許不具推理能力 (因而導致了所謂「逆轉詛咒」這樣的問題,無法推斷事實之間的關係),但這樣的缺點終究會被克服。一旦解決之後,代理式 AI 的時代就會來臨。
提升 AI 的智力
今日的 GenAI 工具扮演的是生成者:它們生成文字、影像、程式碼、分析結果等等。但 AI 真正的威力將來自思考和執行能力,也就是解決問題並採取行動。McKinsey & Company 在 7 月底發表了一篇報告解釋 GenAI 代理將如何成為「將資訊化為行動」的驅動力,那就是:動態適應情境 (而非依據規則導向邏輯)、回應自然語言提示,以及與現有的軟體平台互動。每一個 AI 代理基本上都是一個自主思考的單元,在最理想的情況下,這會讓工作流程更有效地執行,並產生更優質、更準確的結果。
ZDNET 引述 AWS 的指引列舉了 6 種不同類型的 AI 代理:
- 簡易反射型代理,負責像重設密碼這樣的工作。
- 模型導向反射型代理,可以執行優、缺點判斷。
- 目標/規則導向代理,能比較不同選項,然後選出最有效率的路徑。
- 實用導向代理,能進行價值比較。
- 學習代理。
- 階層式代理,能管理及指派子任務給其他代理。
根據 Forbes 在 8 月份發表的一篇文章,代理式 AI 的重點在於自動化與決策支援,所以它「可用來增強人類的能力,而非取代人類」,這對人們長久以來對 AI 可能讓人丟掉工作並在經濟上造成替代效應的疑慮,也許是一線曙光。
我們到了沒?
如果代理式模型可以讓 AI 的工作從「生成」變成「執行」,那麼人類也將從「工具使用者」轉變成「目標敘述者」,也就是交由 AI 系統來達成預期的成果。那麼,我們離這樣的願景還有多遠? 今年 7 月,Bloomberg 報導了 OpenAI 的通用人工智慧 (AGI) 五階段進程。第 1 階段是「聊天機器人」(chatbot),第 2 階段是「推理者」(reasoner),第 3 階段是「代理」(agent)。最後兩個階段分別是「創新者」(innovator) 以及能像「組織」 (organization) 一樣運作的 AI。AI 廠商目前才快要到達第 2 階段,不過代理式 AI 才是下一個目標。而且,當我們到達該目標時,今日的 LLM 浪潮不論在規模與持續時間上,都將變得小巫見大巫。
而邁向該目標的其中一條路徑,就是以遊戲 AI 的前身為開發基礎。AI 推理專家 Noam Brown 在 2023 年加入 OpenAI 時,曾在 LinkedIn 上發文指出,將 AI 獨自玩耍的方法通用化有可能衍生出「比 GPT-4 強 1,000 倍的 LLM」。雖然讓 AI 能「思考」並推論問題將增加運算的時間和成本,但 Brown 卻認為這樣的取捨是值得的,尤其是在癌症醫療領域。儘管如此,但對 AI 廠商來說顯然是一項艱難的任務,這也許是件好事,因為有一些關鍵的網路資安問題必須先解決。
AI 威脅趨勢
「你需要一艘更大的船。」
Roy Scheider 在《大白鯊》(Jaws) 電影中第一次看到那條巨大鯊魚時說出了這句名言,而這也反映了許多前瞻資安專家對於代理式 AI 資安風險的看法。今日 AI 相關的最大威脅是:詐騙、資料隱私權,以及漫不經心的使用方式。然而一旦 AI 代理開始自主判斷並採取行動時 (而且可能無法稽核或追溯其判斷方式),那麼,他們突然變壞並違反其創造者、使用者或人類整體利益的風險,是非常真實的。
為了防止這樣的情況發生,AI 平台的內部安全機制與外部控管兩者缺一不可:我們要在 AI 嵌入「不得造成傷害」的原則,然後再搭配多重零信任資安與縱深防禦方法,正如趨勢科技近期有關不受控的 AI 的一系列部落格文章所言。
其中一項挑戰,就是要確保 AI 系統能達到預期的安全標準。TechCrunch 的報導指出許多 AI 安全評估都做得不好,有一份研究發現「目前的評估... 並不盡完善,很容易被操弄而且不一定能代表模型在真實世界情境中的行為。」 在 AI 當中融入控管與安全檢查,是確保代理式 AI 能否被安全使用的關鍵。
結帳出口的騙子
詐騙依然是 AI Pulse 持續追蹤的威脅焦點。即使沒有像代理式 AI 這樣的技術,詐騙集團的能力還是不斷躍進。雖然我們無法緊盯著駭客的行動,很難確切知道他們將 AI 用在什麼地方,但 AI 很顯然扮演了某種角色。網路釣魚和變臉詐騙 (BEC) 的數量和精密度都在不斷提升,顯示駭客的能力確實變強。趨勢科技的感測器防護網偵測到了一些似乎由生成式 AI 所創造的內容,還有一些假冒的網域和網站似乎也運用了 LLM 的自然語言和多型態內容創作能力。
就在幾個禮拜前,ConsumerAffairs 發表了一篇文章說明某個「分辨冒牌 Amazon 網頁」的挑戰如何讓數百萬名網購者被看似合法的網站所騙,因而執行了假交易。這篇文章點出網路上一些便宜到爆的現成「網路釣魚套件」如何讓不肖之徒能輕易建立詐騙網站。此外也引述一份 Memcyco 的研究指出他們一次就掃描到 4 個冒牌的 Amazon 網站,同時還提到 2023 年 Amazon 花費了超過 12 億美元並成立了一個 15,000 人的團隊來專門防止詐騙。
10,000 多名運動員、200 多個國家、140 多次網路攻擊
正如我們 之前發表過的 AI Pulse 文章 所預測,今年夏天的巴黎奧運確實看到了一大波網路攻擊:總計超過 140 次。根據法國網路資安機構 Anssi 表示,奧運本身並未受到影響。政府機關以及運動、交通運輸、電信基礎設施才是駭客的主要目標,有三分之一的攻擊造成了服務停擺,其中有一半是因為遭到阻斷服務攻擊。
而最令人矚目的事件是一起針對 Grand Palais (大皇宮展覽館,參與了奧運舉辦項目) 以及數十個法國博物館的勒索病毒攻擊,儘管政府方面表示奧運相關的資訊系統並未受到影響。
在 AI 的餿水與黏液汪洋中游泳
我們在第一期的 AI Pulse 文章中介紹了不少有關深偽 (deepfake) 的資訊,但深偽並非唯一可能有害的 AI 相關內容。美國《華盛頓郵報》(Washington Post) 在八月中期刊登了一則新聞指出 AI 影像生成軟體 Grok 產生的圖片在社群媒體 X 上氾濫。儘管 Grok 本身並不含任何惡意成分,但該文卻引用一些含有納粹圖案的貼文點出了它缺乏安全機制的問題。
不僅如此,一些被戲稱為「餿水」(slop) 的惱人內容,其數量也因 AI 的緣故而越來越氾濫,這些內容看似好像由真人製作,並遊走在合法的有價值內容與誤導且浪費時間的垃圾內容之間。但更糟糕的是一些大剌剌的錯誤資訊,它們被戲稱為「黏液」(slime)。根據一份 2024 年的研究卻指出 AI 聊天機器人經常很容易吐出這類錯誤資訊。根據 NewsGuard 網站表示,經過測試,網路上的 10 大聊天機器人約有三分之一的時間都在不斷重複著俄羅斯散播的錯誤資訊。而今年正值重大選舉之年,這對想要尋求不同觀點的人來說,真相的來源相當令人憂心。
代理式 AI 的下一步
拜託,別再來一個「 @*#&%*!! 」聊天機器人!
現在就宣稱 GenAI 不可能兌現其承諾,也許有點太過短視,因為這樣的說法誤認為 LLM 就是人工智慧的一切,事實並非如此。如果說 AI 熱潮已經退燒 (AI 大廠的第 2 季財報似乎意味著如此),那只證明了一件事,那就是:這個世界不需要再來一個聊天機器人。真正需要的是 AI 的下一步:適應與解決問題的能力。
打造更大的 LLM 沒辦法帶來這樣的能力,它需要更深層的解決方案,並開發出複合式系統。
先分化再一一擊破
「複合式系統」正如其名,包含了多重元件共同運作,能比單一統計模型執行更複雜的工作。階層式 (hierarchical) 版本的代理式 AI 擷取了一些這樣的概念,同步運用並協調多個 AI 代理來執行多樣工作以完成某個共同目標。
根據柏克萊人工智慧研究 (Berkeley Artificial Intelligence Research,簡稱 BAIR) 團隊所言,複合式系統更容易加以改善,也比單一 LLM 更有活力,而且在達成使用者指定的成效 (及成本) 目標時更有彈性。此外,或許也更容易掌控並值得信賴。由於它並非仰賴「單一事實來源」(也就是單一 LLM),所以複合式輸出會經過其他元件的篩選和審查。
終極版的複合式系統將會是由一個眾多 AI 代理所組成的 AI 網格,系統本身內部就會彼此互動,同時也會和跨越組織界線的其他代理「對話」。
擺盪的雲端鐘擺
InfoWorld 指出,代理式 AI 的形式早已存在於車用與家用環境控制領域的個人電話助理。企業機構在導入這類技術時,很多都選擇適應其基礎架構,並混合運用企業內、裝置內以及雲端內 AI 來同時兼顧彈性和效能。未來 AI 代理將無所不在,從穿戴式裝置到筆記型電腦與資料中心。而要在這環環相扣的生態系中打造安全和值得信賴的環境,我們得仔細關注 AI 網格的發展。
將熊關在籠子裡
邁向一個複合式框架,讓 LLM 與 AI 代理彼此溝通合作,這樣的 AI 將帶來更好的成果。但如同前面所說,要確保這類 AI 安全無虞,需要一艘「更大的船」,如果用 AI 大師 Yoshua Bengio 的話來說,就是一個更好的籠子,用來關住 AI 這頭大熊。而這就回到一個基本的問題:AI 系統是否正在達成預期的目標?還是在追尋不預期的結果? (這又牽涉到另一個問題:誰的目標?以及哪些目標是我們最想要的?)
就目前來說,要想讓 AI 推理能力邁入下一階段,並且讓資安融入 AI,似乎還得再加把勁。這樣的情況必須改變,否則我們最終將得到一個不受控制的 AI,追尋著不是我們設定的目標,而且也不符合我們的最佳利益。
更多趨勢科技對代理式 AI 的觀點
請參閱以下其他文章: