「AIのリスク」に対する世界の取り組みを理解する(後編)~イニシアティブ・宣言編~
報道でよく目にするようなったAIの安全性や信頼性をリードする組織やイニシアティブの名称。世界の潮流を知り、自組織のAIガバナンス構築に役立てるため、世界的な取り組みを解説します。

はじめに
人工知能(AI)の急速な進歩により、安全性、倫理、セキュリティに関する懸念が高まっています。AIシステムがさまざまな産業に広く導入される中、バイアスやセキュリティの脆弱性、誤情報、倫理的問題などのリスクが指摘されており、こうした課題に対応するため、多くのAIの安全性に関する組織が設立されています。
しかし、こうした取り組みの数が非常に多いため、AIの開発や運用に関わる関係者にとって、最も重要な組織や取り組みに注目し、その活動を効率的に把握することは容易ではありません。
本記事では、数あるAI安全に関する取り組みの中でも重要なものに焦点を当て、以下の「安全なAI活用に関するイニシアティブと宣言」および「AIの安全性を主導する主要組織」について、前編と後編2回に分けて解説します(この記事は後編です)。
前編はこちら。
参考記事:
・AIアクション・サミット:世界のリーダーが革新、規制、セキュリティを議論
・EU AI法(EU AI Act)の概要と特徴の解説~日本企業が備えるべきこととは?~
【前編:AIの安全性を主導する主要な業界組織】
・GASA(Global Anti-Scam Alliance)
・BSA(Business Software Alliance)
・AI Alliance
・CoSAI(Coalition for Secure AI:安全なAI推進連合)
・CSA(Cloud Security Alliance)
・C2PA(Coalition for Content Provenance and Authenticity:コンテンツの出所証明と信頼性連合)
・AISIC(Artificial Intelligence Safety Institute Consortium)
【後編:安全なAI活用に関するイニシアティブと宣言】
・The Pall Mall Process(パル・マル・プロセス)
・Munich Security Conference: AI Elections Accord(ミュンヘン安全保障会議: AI選挙協定)
・World Economic Forum: AI Discussions at Davos 2025(世界経済フォーラム: 2025年ダボス会議におけるAI議論)
・AI Safety Summit Series(AIセーフティ・サミット)

写真:The Pall Mall Processが発足したランカスター・ハウス(Wikipediaより。写真はFinancial Times撮影)
「The Pall Mall Process」は、商業的なサイバー侵入技術(commercially cyber intrusion capabilities)の拡散と不適切な使用に対処するための国際的な取り組みです。2024年2月6日にロンドンのランカスター・ハウス(Lancaster House)で発足し、イギリスとフランスが共同で主催しました。日本やアメリカを含む政府、国際機関、民間企業※、学術機関、市民社会が協力し、この問題に取り組んでいます。
※マイクロソフト、Google、Metaなど。
これらの技術は、法執行やサイバーセキュリティの分野で正当な用途がありますが、管理されないまま拡散すると、国家安全保障、デジタルの安定性、人権への重大な懸念を引き起こします。
この取り組みの主な目的は次のとおりです。
• サイバー侵入ツールの責任ある使用に関する指針を策定する。
• 正当なサイバーセキュリティ活動を可能にしつつ、悪用を防ぐための政策オプションを提示する。
• 各国政府、民間企業、市民社会の協力を促し、グローバルなサイバーセキュリティの枠組みを強化する。
• 商業的なサイバー侵入市場の監視と規制を推進する。
この取り組みは、多様な関係者が協力するアプローチに基づいています。高度なハッキングツールの普及がサイバー攻撃の障壁を下げ、個人、企業、政府へのリスクを高めている現状を踏まえ、適切な対策を講じることが求められています。

「AI Elections Accord」は、「MSC: Munich Security Conference(ミュンヘン安全保障会議)」の一環として発足した取り組みで、主要なテクノロジー企業が協力し、AIによって生成された虚偽のコンテンツが選挙に悪影響を及ぼすことを防ぐことを目的としています。AIによる音声、動画、画像の生成技術が高度化する中、有権者をミスリードする操作されたコンテンツのリスクが高まり、世界の民主主義プロセスにとって重大な脅威となっています。
関連記事:大統領選挙でも悪用されうる生成AI
この協定は、AIを悪用した選挙関連の誤情報の影響を軽減し、選挙制度への信頼を強化するための重要な一歩です。「AI Elections Accord」は、政治候補者や選挙管理者、主要な関係者の外見や声、行動を変更または捏造するAIの悪用を防ぐことを目指しています。また、投票日や投票所、選挙資格に関する虚偽情報など、AIによる選挙手続きに関する誤情報の拡散にも対応します。
この脅威に対抗するため、参加しているテクノロジー企業※は以下の取り組みを行うことを約束しています。
※主な企業は、トレンドマイクロ、マイクロソフト、GitHub、Adobe、Amazon、ARM、Google、IBM、LinkedIn、Meta、OpenAI、TikTok、Xなど。
• AIを活用した虚偽の選挙コンテンツを検出・軽減する技術の開発と導入
• AIモデルが選挙においてもたらすリスクの評価
• AI生成の欺瞞的なコンテンツを自社プラットフォーム上で検出し対処すること
• 業界全体の連携を強化し、ベストプラクティスを共有すること
• AIを悪用した誤情報対策の取り組みを透明化すること
• 市民社会団体や学術機関と協力し、情報に基づいた解決策を開発すること
• 選挙に関するAIによる誤情報を見分けるための啓発とメディアリテラシーの向上
多様な企業の参加は、選挙関連のAI誤情報を抑制する必要性が業界内で広く認識されていることを示しています。「MSC: Munich Security Conference」は、AI選挙協定の調整役として、署名企業間の対話を促進し、AIと選挙の安全保障に関するイベントを開催するとともに、協定で定められた取り組みが積極的に実施されるよう監督しています。
World Economic Forum: AI Discussions at Davos 2025(世界経済フォーラム: 2025年ダボス会議におけるAI議論)
「World Economic Forum's Annual Meeting 2025」では、人工知能(AI)の変革的な役割が主要な議題となり、「インテリジェント時代の協力(Collaboration for the Intelligent Age)」というテーマに沿って議論が行われました。産業界、政府、社会全体におけるAIの影響について、多様な分野のリーダーが集まり議論を深めました。
「インテリジェント時代の産業(Industries in the Intelligent Age)」と題されたセッションでは、AIが各業界のビジネス戦略をどのように変革しているかが取り上げられました。多くの企業がAIの活用に取り組んでいるものの、その規模を拡大し持続的な影響を与えるには多くの課題が伴うことが指摘されました。Amazon Web ServicesのCEOであるマット・ガーマン(Matt Garman)氏は、「技術の進化が驚くべき速さで進んでおり、すべての人がそれについていくのは難しい」と述べ、AIの急速な発展に適応することの難しさを強調しました。
また、近い将来登場する高度なAIシステムについても議論されました。アメリカのAI研究者・起業家のダリオ・アモデイ(Dario Amodei)氏や、カナダのディープラーニングの研究者ヨシュア・ベンジオ(Yoshua Bengio)氏といった専門家たちは、AIが5年から10年の間に、100年分の科学的進歩を達成する可能性があると指摘し、強力な技術を適切に活用するための準備の重要性を強調しました。
ダボス会議では、AIの統合に向けた戦略的アプローチとして、以下の点が強調されました。
• 意図的な活用: AIが従来のツールよりも明確な利点を提供できる領域で適切に活用すること。
• 持続可能な拡張: AIの導入拡大に伴うエネルギー消費の増加を考慮し、環境負荷とバランスを取ること。
• 協力的なエコシステム: 業界を超えたパートナーシップを構築し、革新を促進しながら共通の課題に対応すること。
国連のアントニオ・グテーレス(António Guterres)事務総長もフォーラムで演説し、AIの恩恵とリスクを適切に管理するための強固なガバナンス枠組みの必要性を訴えました。また、AI技術の進化によって生じる複雑な課題に対応するため、国際協力が不可欠であることを強調しました。
2025年のダボス会議では、AIが未来を形作る上で極めて重要な役割を果たすことが再確認されました。各国のリーダーは協力を深めながら、責任あるAIの活用、技術の進歩が持続可能で包摂的な成長へとつながるよう取り組んでいます。

「AI Safety Summits」は、高度なAIのリスクに対処し、テクノロジーの恩恵を人々が享受するために活動する非営利団体Future of Life Institute(FLI)※が主催する国際会議です。AI Safety Summitsでは、学術界、産業界、政策立案者など多様な分野の専門家が一堂に会し、理解のギャップを埋め、AIに関連するリスクを軽減するための具体的な解決策を生み出すことを目的としています。
※Future of Life Institute:2014年にJaan Tallinn氏(Skype創業者)やMax Erik Tegmark氏(物理学者・作家)が創設。2025年現在、外部顧問にStephen Hawking氏(論理物理学者・作家)やElon Musk氏(Space X・Tesla Motors創業者)などがいる。
各サミットでは、AIの安全性に関する重要なテーマが議論されます。
• 規制の枠組み:
AIの開発、導入、責任に関する政策を策定し、異なる法域におけるガバナンスの確立を目指します。
• リスク評価:
AIシステムがもたらす潜在的な脅威を特定し、バイアス、誤情報、自律的な意思決定のリスク、悪意ある利用などの課題に対処します。
• 倫理的なAIガバナンス:
AIの革新を導く倫理原則を確立し、人間の価値観や社会の福祉と調和するAIの開発を推進します。
• AIのアライメントと制御:
AIが人間の意図に沿って動作し、進化するにつれて確実に制御できるようにするための技術的課題に取り組みます。
• 国際協力:
国境を越えた議論を促進し、AI安全政策の調和を図ることで、AI軍拡競争を防ぎ、責任あるAI開発を推進します。
FLIはこれまでに複数のサミットを開催※し、政策立案者や業界リーダーに向けた重要な提言を生み出してきました。過去の議論を通じて、各国政府、AI研究機関、市民社会組織の連携が強化され、責任あるAIの利用に向けた指針が策定されました。
※これまで、2023年11月(イギリス)、2024年5月(韓国)、2025年2月(フランス)に開催。
関連記事:AIアクション・サミット:世界のリーダーが革新、規制、セキュリティを議論
AIの進化が続く中、AI Safety Summitsはその範囲を拡大し、新たな知見や技術開発を取り入れていきます。今後のサミットでは、AIガバナンスモデルの精緻化、AIの意思決定における透明性の向上、社会の発展に貢献しながらリスクを最小限に抑えるAIの活用について、より深い議論が行われる予定です。
AIの安全性に共通するテーマ
前編と後編と通して、「AIの安全性を主導する主要な組織」と「安全なAI活用に関するイニシアティブと宣言」を解説してきました。それぞれ異なるアプローチを取っていますが、共通するテーマがいくつか存在します。
これらの基本的な原則は、AIの責任ある安全な活用を目的とした規制の枠組み、倫理的ガイドライン、技術的ソリューションの形成に大きな影響を与えています。
1. 説明責任とガバナンス:
AIの安全性を確保するためには、AIシステムが倫理的・法的基準を遵守することを保証する説明責任の仕組みが不可欠です。これには、業界の自主規制、政府による監督、国際的な協力を通じたガバナンスの枠組みの構築が含まれ、AIに関連するリスクを軽減するための取り組みが進められています。
2. 透明性と説明可能性:
AIの透明性を確保することは、多くの組織が共通して掲げる重要なテーマです。AIモデルの意思決定プロセスを理解しやすくすることで、ユーザや関係者の信頼を築くことが求められます。コンテンツの真正性を検証し、誤情報の拡散を防ぐために「C2PA: Coalition for Content Provenance and Authenticity」や「AI Elections Accord(AI選挙協定) 」といった取り組みが進められています。
3. セキュリティとリスク軽減:
AIを活用したサイバー攻撃や誤情報の拡散、その他の自動化された脅威への対応が急務となっています。「The Pall Mall Process(パル・マル・プロセス)」、「GASA(Global Anti-Scam Alliance)」、「CoSAI: Coalition for Secure AI(安全なAI推進連合)」などの組織は、サイバーセキュリティリスクの軽減、安全なAIシステムの開発、デジタルインフラの保護、悪意あるAI利用の防止に重点を置いています。
4. 公平性とバイアスの軽減:
AIシステムにおけるバイアスの排除は、多くのAI安全対策組織が重視する課題の一つです。学習データやアルゴリズムに潜むバイアスが、公平性を欠いた意思決定を招く可能性があり、特に採用、融資、法執行などの分野で問題となることがあります。「AISIC(Artificial Intelligence Safety Institute Consortium)」や「AI Alliance」は、AIモデルの公平性を確保するために、標準化された評価基準やテスト環境の開発を進めています。
5. 国際協力と政策の整合性:
AIは国境を越えて影響を及ぼすため、各国の規制を調和させることが重要です。「AI Safety Summits(AIセーフティ・サミット)」やミュンヘン安全保障会議の「AI Elections Accord」などのイニシアティブでは、国際協力を促進し、一貫性のある実効性の高いAIガバナンスの枠組みを策定する取り組みが進められています。これにより、規制の抜け穴を防ぎ、倫理的・安全性の問題を抱えたAIの導入を阻止することを目指しています。
6. 公共の認識向上と教育:
多くのAI安全対策組織は、AIに関するリスクやベストプラクティスについて、一般市民や産業関係者の理解を深めるための活動を行っています。「AI Alliance」はスキル向上や教育プログラムを推進し、「GASA (Global Anti-Scam Alliance)」は、AIを悪用した詐欺への認識を高めるためのワークショップを開催しています。こうした取り組みにより、利用者、企業、政策立案者がAIを適切に扱うための知識を得られるようになっています。
7. 責任あるAIの開発と導入:
AIシステムの安全性を開発段階から確保することは、多くの業界組織やイニシアティブに共通する重要なテーマです。「BSA( Business Software Alliance)」や「CSA(Cloud Security Alliance)」などの組織は、安全なソフトウェア開発の実践、リスク評価の徹底、標準化されたコンプライアンスフレームワークの策定を通じて、責任あるAIの普及を促進しています。
AIを活用する組織が取るべき対策
AIがさまざまな業界で不可欠な存在となる中、AI技術を活用する組織は、リスクを軽減し、安全基準の変化に適応するためのベストプラクティスを積極的に導入する必要があります。以下の重要な対策を講じることが求められます。
1. AIリスク評価フレームワークの導入:
AIに関連する潜在的な脆弱性を評価するため、徹底したリスクアセスメントを実施することが不可欠です。これには、学習データにおけるバイアスの評価、セキュリティリスクの特定、意図しない影響の分析が含まれます。「AISIC(Artificial Intelligence Safety Institute Consortium:AIセーフティ機関と人工知能安全機関コンソーシアム)」やNISTが提供するフレームワークを活用することで、これらの課題に対応しやすくなります。
2. 倫理的なAIの原則を採用する:
AIシステムの開発において、倫理的な指針を優先し、公平性・透明性・説明責任の原則に基づいた運用を行うことが重要です。「AI Alliance」や「BSA( Business Software Alliance)」などのガイドラインを参考にしながら、倫理的な視点をAI戦略に組み込むことが推奨されます。
3. AIのセキュリティ対策を強化する:
AIを悪用したサイバー攻撃のリスクが高まる中、組織は堅牢なセキュリティ対策に投資する必要があります「CSA(Cloud Security Alliance)」や「CoSAI(Coalition for Secure AI)」といったセキュリティ専門の組織と協力することで、AIモデルやインフラの保護に関するベストプラクティスを導入しやすくなります。
4. AIモデルのパフォーマンスとバイアスを継続的に監視する:
AIシステムのバイアス、不正確性、セキュリティ上の脆弱性を早期に発見し、対処するために、継続的な監視が必要です。定期的な監査の実施、第三者評価の活用、透明性を確保するツールの導入を通じて、AIの信頼性を維持することが求められます。
5. AIガバナンスポリシーを策定する:
AIの利用範囲やコンプライアンス要件、監督メカニズムを明確にするため、組織内におけるガバナンスポリシーを整備することが重要です。国際的な基準に準拠し、規制当局と連携することで、法的・倫理的な順守を確保することができます。
6. AIに関する教育・啓発活動を推進する:
AIのリスクや適切な活用方法について、従業員や顧客、関係者に対する教育を強化することが求められます。「GASA(Global Anti-Scam Alliance)」や「AI Alliance」が推進するAIリテラシー向上の取り組みに参加することで、誤用を防ぎ、AI技術への信頼性を高めることができます。
7. AI安全性や政策に関するイニシアティブに参加する:
AIの安全性に関する議論に積極的に関与することで、新たな規制やベストプラクティスに対応しやすくなります。「AI Safety Summits(AIセーフティ・サミット)」や「The Pall Mall Process(パル・マル・プロセス)」といったイニシアティブや国際会議に参加したり、議論のポイントを把握することで、政策形成に貢献し、グローバルな基準に沿ったAI戦略を構築することが可能になります。
8. 規制対応を見据えた準備を行う:
AI関連の規制は急速に進化しており、各国の政府が新たな法制度を導入しています。組織は、最新の規制動向を常に把握し、コンプライアンス対応を適切に行うことで、AIシステムが法的枠組みに適合するように備える必要があります。
考察:AI安全イニシアティブが示す未来と課題
AI安全に関する国際的な取り組みの拡大は、技術革新のスピードに適応しようとする人類の奮闘を象徴しています。2025年現在、AIは社会インフラに深く組み込まれ、技術的な課題を超えて、倫理、法制度、国際協調といった複雑な領域にまで影響を及ぼすようになっています。
進展と成果
• 国際協調の加速:
The Pall Mall ProcessやAI Elections Accordといった取り組みにより、具体的な国際的協力が進んでいます。特にC2PAの電子透かし技術は、デジタルコンテンツの信頼性向上に貢献しています。
• 業界主導の自主規制:
Cloud Security Alliance(CSA)やBSAによるガイドラインが、政府の規制に先駆けて業界標準として形成されつつあります。また、AWSやGoogleといった大手テクノロジー企業の自主的な倫理基準の導入が、AI開発の適正化を促進しています。
継続する課題
1. ガバナンスの非対称性:
AIの発展スピードに対し、法的枠組みや国際合意の整備が追いついていません。特にEUのAI法とアジア諸国の政策との間には、生成AIの不正利用防止に関する規制の差が顕著です。
2. セキュリティの二重利用問題:
AIを活用した防御ツールが逆に悪用されるリスクが依然として解決されていません(例:ディープフェイク検出アルゴリズムのリバースエンジニアリング)。GASAの取り組みが重要である一方で、犯罪組織によるAI技術の導入スピードが防御策を上回る可能性があります。
3. 日本における実装の遅れ:
東京・渋谷のテックハブをはじめ、日本国内のAIスタートアップは活況を呈していますが、実際の運用に適したフレームワーク(例:AISICガイドライン)の整備は依然として不十分とされます。プライバシー保護と技術革新の促進を両立させるための具体的な対応が急務となっています。
AIの安全性を追求することは、人類とテクノロジーの共存のあり方を再定義する歴史的なプロセスといえます。2025年、AIは「制御可能な存在」から「社会システムと共進化する存在」へと移行する重要な転換点に立っています。
監修

石原 陽平
トレンドマイクロ株式会社
セキュリティエバンジェリスト
CISSP。犯罪学学士。経済安全保障コーディネーター。世界各地のリサーチャーと連携し、サイバー犯罪の研究と情報発信を担う。また、サイバー空間における脅威概況や特定専門領域(産業制御システム/IoT/5Gなど)のセキュリティ調査/発信も担当。日本の組織の経営・役員に向けた講習、サイバーセキュリティの国際会議での講演などを通じ、ビジネスとデジタル技術の関係性や、サイバー事故の犯罪学的/地政学的考察に基づく、サイバーリスク対策の啓発を行う。
講演実績:Gartner IT SYMPOSIUM/Xpo™ 2023、SANS ICS Summit 2022、CYBER INITIATIVE TOKYO(サイバーイニシアチブ東京)2022、デジタル立国ジャパン・フォーラム 2022、制御システムセキュリティカンファレンス 2021・2022など

Security GO新着記事
「AIのリスク」に対する世界の取り組みを理解する(後編)~イニシアティブ・宣言編~
(2025年4月3日)
「AIのリスク」に対する世界の取り組みを理解する(前編)~主要な組織編~
(2025年4月2日)