人工智慧
AI Pulse:巴西強硬拒絕 Meta 濫用數據訓練AI、國際刑警組織對AI 發出哪些警告?
AI Pulse 系列的第二篇將討論 AI 法規:未來將出現什麼法規、法規為何重要,以及沒有法規的話會怎樣。我們將探討巴西政府為何拒絕了 Meta、社會為何反對 AI 使用他們的資料做訓練、國際刑警組織 (Interpol) 對於 AI 深偽 (deepfake) 發出哪些警告,以及更多其他精彩內容。
AI is advancing at such a fast pace that regulators, governments, and content creators are having a hard time keeping up. This edition of AI Pulse takes a deep dive into the topic of AI regulation, from Brazil’s Meta challenge and creators’ copyright defenses to recent law enforcement warnings and a contemplation on what will happen once agentic AI starts to ‘think’ for itself.
AI regulation: Who’s driving the bus?
Almost as soon as generative AI hit the scene, critics started sounding alarms about AI companies’ rampant consumption of data for training their models. Arguments continue to rage over whose data is it, who has the right to use it—and where and how.
The high speed and low transparency of AI innovation have made it tough for content owners, regulators, and legislators to keep up, but that hasn’t stopped them from trying. In the last few weeks and months, authorities have put the brakes on some big players’ ambitions while vocal communities have aired their frustrations—sometimes in hard-hitting ways.
This AI Pulse looks at a few key developments in AI regulation and why guardrails are going to be more important than ever with the rise of ‘agentic’ AI.
What’s new in AI regulation
Regulators flex on the AI feeding frenzy
Brazil delivered bad news to Meta at the start of July when it halted the company’s plan to train AI models on Instagram and Facebook posts. According to the BBC, Meta aimed to scrape public posts, images, and comments for AI training. Content would have included posts by children and teens. Meta said its plan conformed to Brazilian privacy laws; the country’s data protection agency, the ANPD (Autoridade Nacional de Proteção de Dados), said otherwise.
Meta had already backed off a similar move in the EU under pressure from governments there, and more recently announced it would not be deploying its next multimodal AI model in Europe or Brazil because of a lack of clarity about regulations. (Multimodal AI models make use of the full range of media instead of just text, video, or images on their own.) Whether or not this is related to the EU's AI Act passing in July, the act ‘going live’ means the clock is now ticking for companies to comply.
Whose data is it, anyway?
AI regulation touches on questions of copyright and data privacy that are governed by other, preexisting legal frameworks. Back in January 2024, Italy found OpenAI was likely in violation of one of those frameworks, the EU’s GDPR, in a case that’s still ongoing.
Part of the issue comes down to what constitutes ‘publicly available’ data—which AI companies and regulators tend to see very differently. As a recent Axios feature noted, ‘publicly available’ and public domain are not the same thing, and much of what AI innovators consider publicly available is obtained without explicit user or creator permission, intentionally or otherwise. When a July WIRED story suggested some companies may have violated YouTube policies by using subtitles from videos to train AI platforms, it was acknowledged this may not have been deliberate since the underlying dataset had been collected by a third party.
不同人對「資料」的定義不同,AI 廠商所稱的「資料」對許多人來說卻是他們畢生的心血,例如:藝術家、記者、程式設計師等等。這不單只是語意上的差異而已,「資料」與「創意表達」兩者在價值上天差地遠,相信創作者一定會堅持捍衛他們的詮釋。這就是為何「調查性報導中心」(Center for Investigative Reporting) 會在 6 月底的時候控告 OpenAI 與 Microsoft 侵犯著作權。不久前,《芝加哥論壇報》(Chicago Tribune) 和其他新聞媒體也採取了同樣的法律行動。
從去年底開始,一些視覺藝術家就已經訴諸某種型態的游擊戰來對 AI 展開反擊,他們使用一個名為「Nightshade」的工具,對未經同意擅自使用其作品來訓練的模型下毒。Nightshade 與其搭配工具 Glaze 會在圖片中嵌入一些擾亂資料來扭曲 AI 模型對各種物件外觀的認知,進而干擾其輸出結果。當 AI 法規還無法行動時,有些人似乎已經決定自己出手解決。
還有一些其他的創作者和出版商試圖另闢蹊徑:與 AI 廠商正式合作,貢獻自己的內容以換取功勞或其他好處。例如,《時代雜誌》(TIME magazine) 就在 6 月 27 日宣布,他們將提供其擁有百年歷史的新聞資料庫給 OpenAI 使用,換取在查詢結果中加註資料的來源。
社群資源還是商品?
Reddit 從今年開始便因為跟 Google 及 OpenAI 合作而製造了不少新聞話題。今年 2 月,Google 將其 Vertex AI 提供給 Reddit 使用以改善 Reddit 平台的搜尋和其他功能,換來的是能夠存取 Reddit API 來讓 Reddit 更方便被 Google 搜尋。今年 5 月,OpenAI 也加入戰局並計畫將 Reddit 內容納入 ChatGPT 與其他產品當中,同時也取得 Reddit API 的使用權。
然而並非所有的 Reddit 使用者和其他社群的成員都對其喜愛的平台與 AI 結盟感到振奮。例如,許多開發人員就在 Stack Overflow 和 Stack Exchange 上發文表示對某項與 OpenAI 的合作感到憤怒,他們不希望自己的內容被用於訓練 AI。正如 WIRED 在文章中指出,有些使用者打算將內容刪除,或者刻意汙染內容,讓內容無法被使用。
「嘿,AI,你不能這樣說。」
正當各國政府在跟著作權和隱私權問題以及新興的 AI 威脅 (如假訊息) 搏鬥時,那些慣於審查言論的國家,卻正面臨另一種問題:如何防止 AI 說出一些他們不希望 AI 說出的話,這就是中國政府目前正在處理的挑戰。根據英國《金融時報》(Financial Times) 本月的報導,中國「国家互联网信息办公室」規定 AI 模型需經過政府審查以確保 AI 不會產生不當或引起政治爭議的輸出。不過,目前仍不清楚 AI 言論審查能做到什麼程度,或者禁止某些輸出會造成怎樣的後果。
AI 威脅趨勢
國際刑警組織對深偽的深入研究
目前 AI 法規與執法單位關注的焦點是人工智慧的欺騙性用途:從惡作劇 (須適度規範) 到惡意用途 (須警方介入)。其中,深偽尤其受到國際刑警組織的重視,因為他們最近才發表一份報告叫作「超越幻象:協助執法機關揭開合成媒體威脅的神秘面紗」(Beyond Illusions: Unmasking the Threat of Synthetic Media for Law Enforcement)。(請參閱我們上一期的 AI Pulse 來看看趨勢科技對深偽的看法。)
國際刑警組織表示,執法機關需要學習新的知識和技術來判斷圖片、影片或音訊是否經過 AI 變造。報告中提供了一些合成媒體被用於犯罪的活生生案例,包括:深偽合成的兒童剝削圖片、語音勒索詐騙,甚至是 AI 生成的假護照和身分證。
此外,該報告也談到了「正當使用」的問題,也就是:創作自由與著作權保護之間的爭執 (也就是前述某些衝突背後的原因),這問題也許得在像 AI 這樣的「革命性」技術下重新定義。
政府人員站出來
如同國際刑警組織一樣,美國執法機關也同樣對 AI 可能讓網路犯罪更加猖獗而感到憂心。今年 6 月,FBI 發出警告提醒社會大眾小心詐騙集團為了騙取錢財或個人資訊而假冒執法機關發出的簡訊、電話與電子郵件。正如 FBI 指出,警察機關絕對不會打電話給民眾並威脅要逮捕他們或索取錢財。就在不久前 (5 月份),他們才發出警告指出駭客越來越常使用 AI 來從事「精密的網路釣魚/社交工程詐騙,以及語音/影片偽造詐騙」。
詐騙集團寡廉鮮恥
FBI 與 Interpol 所舉出的騙局,突顯了網路詐騙既惡毒又掠奪成性,而且在 AI 的加持下,其速度、規模及針對特定目標下手的能力只會變本加厲。很多時候,網路駭客喜歡利用人們最深的恐懼:惹上官司的麻煩、摯愛親人的安危,以及財務安全 (包括就業)。
其中最後一點,正是過去一年來經常被利用的主題。如美國《福斯財經網》(Fox Business) 所報導,由於 AI 的關係,求職詐騙在 2023 年暴增了 118%。因為 AI 讓詐騙集團能製作出更具說服力的訊息和網頁,甚至加入深偽影像和聲音。
AI 法規的下一步該怎麼走
如何避免受到傷害
回顧當前 AI 的發展情況,有幾件事情相當明確。
首先,AI 廠商勢必會繼續盡可能取得更多資料。今日的 AI 模型就像《芝麻街》卡通裡面的餅乾怪獸:它的胃就像個無底洞,看到什麼就吃什麼。
這意味著,AI 法規真的至關重要,任何打造 AI 應用程式的人都應該擁有自己的防護措施來確保其使用適當的資料、並以適當的方式使用,而且還必須公開資料的來源。然而在「競爭」與「創新狂熱」的殘酷現實下,一些外部的管制還是必要。
當代理式 AI 的時代來臨時更是如此。
當 AI 自己做主時
有別於今日大型語言模型 (LLM) 需透過使用者的提示來執行任務,代理式 AI 將使用目標導向的自主式代理,由它們自己做決定並告訴系統該做些什麼。有別於將「如何」解決問題寫在它們的程式當中,AI 代理將自己想辦法解決問題。
如果我們已經對 AI 訓練資料可能含有專屬或個人資訊而感到憂心,擔心 AI 會在輸出時洩露資料 (而這些輸出多多少少還是在人類的掌控之中),那麼,當這些輸出完全由 AI 做主而我們卻看不到時,會發生什麼事?
AI 法規必須有實質的力量來確保這類系統在設計時確實考慮到資料的隱私與完整性。正如我們所見,巴西、義大利、歐盟,以及其他政府,都已展現決心來實施這類管控。不過在其他地方,監理機關可能得面臨一場硬仗。美國最高法院 (U.S. Supreme Court) 在 2024 年 6 月的一項判決中不允許聯邦機構解釋法律,這項判決將使得 AI 的監管工作更加困難,而且可能嚴重拖慢監管行動,讓一些緊急的問題必須在法庭內解決。
我們能做些什麼?
除了強而有力且明智的 AI 法規之外,企業也要將安全與隱私權的保護融入軟體開發及導入的循環週期當中,而且越早越好。各自為政將帶來災難:意外或蓄意的疏失而導致 AI 相關資料遭到誤用,很可能造成資料外洩、法律訴訟或商譽損失。
可悲的是,規模最大的廠商沒什麼好損失的:他們的口袋很深,市場地位很穩固,承受個幾次打擊也不會有事。反倒是規模較小的 AI 廠商與使用 AI 輸出的企業,很可能陷入違法與違規的困境,例如違反 GDPR 而導致罰款、損失客戶信任,高層主管甚至可能面臨牢獄之災。
最後,嚴密的內部安全措施,再加上良好的法規環境,世界應該就能好好享受 AI 持續進化所帶來的好處而不犧牲個人隱私、身分或安全。
更多趨勢科技對 AI 的觀點
請參閱以下其他文章: