AIの発展とその影響:2024年の世界の動向まとめ
2024年は自律型AIの開発が加速する一方、ディープフェイクによる詐欺や世論のかく乱が問題になり、各国でAIに対する法規制の動きも見られました。AIを巡る様々な側面から2024年を振り返ります。
実生活に浸透するAI
2024年を振り返ると、AIはもはや新奇な技術でなく、実生活に溶け込み始めているように見受けられます。MicrosoftやSalesforceのような大手企業は、AIをビジネス向けソリューションの中核に取り込むようになり、コピーライティングからデータ分析に至るさまざまな目的に沿ったAIアプリやサービスが続々と登場しました。また、政府や規制当局、シンクタンクは、AIの開発や利用に関する規制の策定に力を注ぎました。その一方でサイバー犯罪者は、人々を騙して脅迫する手段として、AIツールの新たな利用法を模索しています。
本記事では、2024年におけるAIを取り巻く動向を振り返り、そこから得られる知見について解説します。
2024年のAI開発動向
AIの急成長:対話型から自律型へ
以前、当メディアの記事「Agentic AIとは?汎用人工知能(Artificial General Intelligence)へのマイルストーン」で、汎用人工知能(AGI)の実現に向けた5段階のロードマップと、その3段階目の「自律型AI(Agentic AI)」について解説しました。自律型AIは、AIエージェント、エージェント型AIなどとも呼ばれ、近い将来ChatGPTのような対話型AIに取って代わると考えられています。このロードマップはOpenAIが発表したものですが、他のAI開発企業も自律型AIの開発にしのぎを削っています。
セールスフォース・ジャパンは2024年10月に「Agentforce」の日本国内提供開始を発表しました。Microsoftは2024年11月に「Copilot Studio」を使用してAIエージェントを作成する機能のパブリックプレビューを発表しました。Googleは2024年12月にGoogle Agentspaceを発表しています。
AI Agents as a service(AIAaaS)とも呼べるような、新しいビジネスモデルが登場する兆しかも知れません。
また、2024年の自律型AIに関する際立った進展として、AnthropicのAIモデル「Claude 3.5 Sonnet」の新機能「Computer Use」が挙げられます。本機能は、AIモデル「Claud 3.5 Sonnet」にコンピュータ画面を「見せ」、マウスのカーソル移動やリンクのクリック、テキスト入力といった操作を行わせることが可能です。
RAGによってLLMの回答性能を向上
ChatGPTなどのLLM(Large Language Model:大規模言語モデル)で、回答の信頼性を高める手法のひとつに「検索拡張生成(RAG:Retrieval Augmented Generation)」があります。通常LLMは、学習済みデータのみをもとに回答を生成するため、学習データに含まれないことを回答することはできず、また誤った回答(ハルシネーション)を生成することもあります。これに対して、学習していない情報を外部データベースとして準備し、LLMにそれを参照させる機能を追加するのがRAGです。これにより回答性能が向上し、ハルシネーションが低減できると考えられています。また、次に述べる「ファインチューニング」とRAGを組み合わせることで、性能がさらに向上すると言われています。
ファインチューニングは、事前トレーニング済みの汎用モデルに対して、特定領域のデータセットを用いて追加でトレーニングを行い、その領域の知識を付与するものです。RAGとの違いを端的に表現すると、「追加トレーニングをするかしないか」だと言えるでしょう。
ファインチューニングのメリットには、外部データベースを参照せずLLM単独で回答するために高速であることや、特定領域の回答性能向上などが挙げられます。一方デメリットとして、追加トレーニングのために高品質・大量の訓練データや計算リソースが必要になること、情報が更新されるたびに追加トレーニングが必要になることなどがあります。
また、Anthropicは2024年9月に、RAGに独自の改良を施したと発表しました。一般的にRAGでは、外部データベースを小さなテキストのかたまりに分割します。ユーザがLLMへのプロンプトを入力すると、それとの意味的類似性に基づいて最も関連性の高いかたまりが検索され、ユーザのプロンプトとともにLLMに送られ、そこからLLMは回答を生成します。しかし、個々のかたまりに十分なコンテキストがない場合、ユーザのプロンプトに関連した情報が取得できないという課題が指摘されています。これに対してAnthropicは、それぞれのかたまりにその内容を説明するコンテキストを追加することにより、検索性能を向上させることができたと説明します。Anthropicはこれを「Contextual Retrieval(コンテキスト検索)」と呼んでいます。なお、すべてのかたまりにコンテキストを手動で追加するのは膨大な労力が要りますが、そこは同社が開発した生成AIモデル「Claude」の力を借りたとのことです。
AIモデルの軽量化
自律型AIへの移行が進むに従い、特定の用途向けに作られた軽量で高速なモデルの需要が高まっています。2024年には、こうした面での取り組みも活発化しました。例えばMetaは10月、AIモデル「Llama」をアップデートし、以前と比べて2~4倍の処理速度と56%の軽量化を達成しました。これにより、スマートフォンのような小型デバイスにも高度なAI機能を搭載しやすくなるでしょう。またNVIDIAは、SLM(Small Language Model:小規模言語モデル)の「Nemotron-Mini-4B Instruct」をリリースしました。VRAMの使用量を約2GBに抑え込み、従来のLLMよりも遥かに高速な処理を行うことが可能とされています。
SLMはLLMより高速というだけではなく、安価で消費電力も節約されるため、市場に広く浸透し、ユーザの手に届きやすくなると見込まれます。これは、国際連合が掲げる「持続可能な開発目標(Sustainable Development Goals)」に合致するものです。
AIの悪用事例:目にしているものは本物か?
ここまで、2024年におけるAIの開発状況や進化を見てきました。一方、これまでにAIが犯罪に悪用された事例はあるのでしょうか?あるいは、どのような犯罪に悪用される可能性が考えられるでしょうか?
巧妙化する騙しの手口
2024年2月には、香港の企業がディープフェイクを悪用したビデオ会議を通して詐欺にあう事件が発生しました。同社の最高財務責任者らになりすました詐欺集団に対して2,500万ドルを送金したと報じられています。
また、いわゆる「バーチャル誘拐」では、実際には誘拐されていない被害者の声を、「誘拐犯」がAIを悪用してクローニングし、電話口などで親族に聞かせることにより身代金を要求する可能性が指摘されています。AIがディープフェイク音声を生成する際、必要なサンプル音声はたったの3秒です。自分の声を含む内容をSNSに投稿することもあり得る昨今、身近な脅威として認識する必要があります。
さらに、KYC(Know Your Customer:本人確認)をオンラインで行う「eKYC」では、AI対AIの様相を呈しています。通常eKYCでは、身分証明書やパスポート、顔写真の確認を最初に行う仕組みとして、端末側で動作するAIを活用しています。これに対して、アンダーグラウンドフォーラムで取引されているディープフェイク技術を用いて実証実験を行ったところ、本人確認を突破できたことをトレンドマイクロのセキュリティブログで報告しています。
民主主義をむしばむディープフェイク
2024年には、40以上の国で選挙が行われました。こうした状況を前にして、テクノロジー業界のリーダーは、2月のミュンヘン安全保障会議(Munich Security Conference)において、「2024年の選挙におけるAIの不正利用を阻止する技術協定(The Tech Accord to Combat Deceptive Use of AI in 2024 Elections / AI Elections Accord)」に署名しました。この協定では、有害なAI生成コンテンツに対抗するために、教育イニシアティブや検知・介入ツールを通して協力し合う旨が合意されました。
こうした取り組みにも関わらず、2024年を通して選挙絡みのディープフェイク画像が氾濫し、世論をかく乱しました。例えば米国では、人気歌手のファンがドナルド・トランプ候補(当時)を支持しているようなAI画像や、アフリカで密猟に関わったとしてカマラ・ハリス候補を非難するAI動画が出回ったと報じられています。
他の国や地域の選挙においても、生成AIの悪用による不正なコンテンツが確認されており、民主主義を守るための早急な法整備が求められています。
AIに対する規制
このような悪用事例を見てくると、各国政府による規制の必要性をひしひしと感じる方もあるでしょう。次にAIに対する規制にはどのようなものがあるのか、グローバルでの取り組みを見ていきます。
国際機関
2024年9月後半に国連が開催した未来サミット(Summit of the Future)では、AIなどのデジタル技術を適切に導く枠組みとして、「グローバル・デジタル・コンパクト(GDC:Global Digital Compact)」が採択されました。そこで掲げられた主要な目標を下記に示します。
●デジタル格差を解消すること
●デジタル経済を開放し、排他的なものとしないこと
●デジタル空間において人権が守られること
●データガバナンスを的確に行うこと
●人々に恩恵があるように、AIを国際的に管理すること
GDCが国連による「未来のための協定(Pact for Future)」に付属文書として組み込まれたことは、AIの安全性やデジタル技術の公正さがいかに重視されているかを示すものです。
2024年11月、経済開発協力機構(OECD)のグループ「Expert Group on AI Futures」より、重要度の高いリスクや対応策に関するレポートが発表されました。その一部を下表に示します。リスクの筆頭として、巧妙化するサイバー攻撃が挙げられています。
「Expert Group on AI Futures」が挙げた主な重要度の高いリスクと対応方針
主なリスク | 対応方針 |
---|---|
●巧妙化するサイバー攻撃 ●民主主義または社会に対する侵害 ●人間的な価値観と機械的な目標の不一致 ●プライバシーの侵害 ●経済的不公平 |
●AIによる侵害を抑止する明確なルールの策定 ●所定の条件に応じたAI利用の制限 ●透明性の向上 ●AIのライフサイクルを通したリスク管理 ●AI市場における一極集中の抑止 ●AIの利点について慎重に吟味 |
EUの対策
EUは、「EU Artificial Intelligence Act(EU AI法)」を2024年3月に承認、2025年2月から一部適用を開始しました。同法は、健康や安全、基本的権利などに対して有害な影響を及ぼすAIの利用を規制し、人間中心で信頼できるAIの導入を促進してイノベーションを支援するための法律です。たとえば、生体情報に基づいて人々を「カテゴリ分け」すること、インターネットやCCTVの映像から顔認識データベースを構築すること、AIによってソーシャル・スコアリングや予測的取り締まり、人体操作を行うことなど、人権を脅かす利用法を禁止しています。
参考記事:EU AI法(EU AI Act)の概要と特徴の解説~日本企業が備えるべきこととは?~
加えて、2024年12月に、EUは製造物責任指令(PLD:Product Liability Directive)を改定し、米国などの法域では「製造物」と見なされない「ソフトウェア」も製造物として扱うようになりました。これによりソフトウェア企業は、自社製品の欠陥によって損害が発生した場合に責任を負うこととなり、そこには解釈上、AIモデルも含まれます。
米国発のAI規制
米国では2024年後半、AI規制に関する慌ただしい動きが見られました。例えば10月、AIに関しては初となる国家安全保証覚書(National Security Memorandum)がホワイトハウスから発表されました。この覚書は、下記の課題に関する具体的かつ効果的な措置を求めています。
1. 安全で信頼できるAI開発において、米国のリーダーシップを確保する
2. AIによって米国の国家安全保障を前進させる
3. AIの利用や管理に関する国際的な合意を促進する
2024年11月には、米国立標準技術研究所(NIST:National Institute of Standards and Technology)は、AIが国家安全保障や治安に与える影響に焦点を当てたタスクフォース「TRAINS(Testing Risks of AI for National Security)」を発足させました。TRAINSのメンバーは、国防総省やエネルギー省、国土安全保障省、または国立衛生研究所の代表として、国家安全保障に関わる各分野のAIモデルを評価する取り組みを、協調的に実施します。対象分野として、放射線や核、化学、生物学的安全保障、サイバーセキュリティなどが挙げられます。
さらに11月には、商務省と国務省が「The International Network of AI Safety Institutes(AISI国際ネットワーク)」を初めて共催し、合成コンテンツによるリスクや基礎モデルのテスト、高度なAIに伴うリスクの評価を主要な議題として掲げました。
ラテンアメリカにおけるAI対策
ラテンアメリア諸国の大半は、AIの可能性を活かしながらも、そのリスクに対処していく取り組みを進めています。法律事務所White & Caseによると、アルゼンチンやメキシコなどが広範な視点に基づく方針や枠組みを示す一方で、ブラジルやチリなどは、より詳細な提案を挙げています。取り組みの方向性もさまざまであり、禁止事項や規制によってリスクを低減することに注力する国もあれば、開放的なアプローチによってイノベーションや国際投資を呼び込むことを重視する国も見られます。
AIとサイバーリスク
AIの規制に際しては、実際にどのようなリスクがあるかを理解することが重要です。2024年、マサチューセッツ工科大学やOWASP(Open Worldwide Application Security Project)などの組織は、AIに潜む脆弱性の特定、詳細化に向けた取り組みを行いました。
OWASPが挙げたLLM関連リスクのトップ10
OWASPは、「OWASP Top 10 for LLM Applications 2025(大規模言語モデル・アプリケーションリスクトップ10 2025)」を発表しました。その内容として、プロンプトインジェクションやサプライチェーン攻撃、不適切な出力の用法など、以前からのリスク項目が見られる一方で、ベクトル表現やエンベディング(埋め込み)表現の弱点、誤情報、無尽蔵な利用(前回のリスク項目「DoS」に取って代わった)など、新たな項目も浮上しています。
半自律型AIをサポートするアーキテクチャが台頭したことを受け、OWASPのレポートでは、「Excessive Agency(過度な自律機能)」に関する懸念が表明されています。具体的には、下記のように述べられています。
With LLMs acting as agents or in plug-in settings, unchecked permissions can lead to unintended or risky actions, making this entry more critical than ever.
(編集部による仮訳:LLMを適切な権限チェックなしで自律プログラムやプラグインとして起動した場合、想定外または危険な動作を行う可能性があります。そのため、本項目(過度な自律機能)は、これまで以上に重大なリスクとなっています。)
参考記事:OWASPが提示するAIリスクのTop 10を読み解く(2023年のリスクについての解説)
マサチューセッツ工科大学も、AI関連リスクの追跡に向けた取り組みを実施しています。同組織は8月に「AI Risk Repository」を立ち上げ、40種以上のフレームワークに基づく700以上のリスクを、分類や引用も含めて公開しました。
AIの活用法:その恩恵を享受するための取り組み
ここまで、AIの悪用事例やリスク、AIに対する規制などを概観しました。しかし本来AIは、人間が行うには時間や労力がかかりすぎる作業を代わりに行ったり、過去データの学習を予測に役立てたりするなど、人間の生活に恩恵をもたらすものです。2024年に行われたポジティブな取り組みも見てみましょう。
2024年には、AIによって脆弱性や攻撃方法を発見する取り組みが行われ、注目を集めました。AIがこうした目的に必須というわけではありませんが、複雑で未知な要素の多い状況では大きな力を発揮します。非営利の業界団体「Frontier Model Forum」の報告では、AIが有効活用できる新たな領域として、脆弱性の発見や修正プログラム(パッチ)の適用が挙げられています。こうした強みは、事後学習に利用可能なサンプルコードの増加や、コンテキストウィンドウ(モデルが一度に処理できるトークンの最大数)の拡大によるものです。さらにAIは、リアルタイム監視や傾向分析を通し、オープンソースによるインテリジェンスの収集や報告をサポートすることも可能です。
2025年に向けてトレンドマイクロが予測したように、自律型AIは、ツールやデータ、プラニング処理を組み合わせることで、上述の機能をさらに強化することが可能です。その結果、人間の時間を一層有効に活用できるようになると考えられます。他の有効活用法として、自律型AIに解析ツール「IDA」や「Ghidra」、「Binary Ninja」などを取り込み、アーキテクチャ型RAGやコードの類似度計算、コンパイル済みコードのアルゴリズム識別機能を組み合わせることで、サイバーセキュリティのレベルを底上げできる可能性があります。
参考記事:
2025年のサイバーセキュリティ動向を予測する~AI・APT・ランサムウェアのリスク状況に注意
トレンドマイクロは、2024年パリ平和フォーラムに参加し、AIの安全な導入と利用に関するガイドラインの作成に向けたパートナーシップを発表しました。「AI Collaborative」のCEOであるMartin Tisné氏がフォーラムで述べたように、AIの開発や利用に際しては、最初から社会に良い影響をもたらすという目標を共有し、そうした視点での成果を求めていくことが重要です。
本記事は2025年1月3日にUSで公開された記事「AI Pulse: Top AI Trends from 2024 - A Look Back」を基にしています。
<関連記事>
・Agentic AIとは?汎用人工知能(Artificial General Intelligence)へのマイルストーン
・OWASPが提示するAIリスクのTop 10を読み解く
・EU AI法(EU AI Act)の概要と特徴の解説~日本企業が備えるべきこととは?~
・EUサイバーレジリエンス法とは~日本企業も無関係ではない?その影響を考察する
・AI TRiSM(エーアイトリズム)とは何か?~AI時代に必要なフレームワーク~
Security GO新着記事
大阪万博(大阪・関西万博2025)で警戒すべきサイバー攻撃と対策
(2025年2月7日)
AIの発展とその影響:2024年の世界の動向まとめ
(2025年2月6日)
FedRAMPとは?~制度の概要と認証までのプロセスを解説~
(2025年2月6日)