「AIのリスク」に対する世界の取り組みを理解する(前編)~主要な組織編~
報道でよく目にするようなったAIの安全性や信頼性をリードする組織やイニシアティブの名称。世界の潮流を知り、自組織のAIガバナンス構築に役立てるため、世界的な取り組みを解説します。

はじめに
人工知能(AI)の急速な進歩により、安全性、倫理、セキュリティに関する懸念が高まっています。AIシステムがさまざまな産業に広く導入される中、バイアスやセキュリティの脆弱性、誤情報、倫理的問題などのリスクが指摘されており、こうした課題に対応するため、多くのAIの安全性に関する組織が設立されています。
しかし、こうした取り組みの数が非常に多いため、AIの開発や運用に関わる関係者にとって、最も重要な組織や取り組みに注目し、その活動を効率的に把握することは容易ではありません。
本記事では、数あるAI安全に関する取り組みの中でも重要なものに焦点を当て、「AIの安全性を主導する主要組織」と「安全なAI活用に関するイニシアティブと宣言」について、前編と後編2回に分けて解説します(この記事は前編です)。
参考記事:
・AIアクション・サミット:世界のリーダーが革新、規制、セキュリティを議論
・EU AI法(EU AI Act)の概要と特徴の解説~日本企業が備えるべきこととは?~
【前編:AIの安全性を主導する主要な業界組織】 ・ GASA(Global Anti-Scam Alliance) ・BSA(Business Software Alliance) ・AI Alliance ・CoSAI(Coalition for Secure AI:安全なAI推進連合) ・CSA(Cloud Security Alliance) ・C2PA(Coalition for Content Provenance and Authenticity:コンテンツの出所証明と信頼性連合) ・AISIC(Artificial Intelligence Safety Institute Consortium) |
【後編:安全なAI活用に関するイニシアティブと宣言】 ・The Pall Mall Process(パル・マル・プロセス) ・Munich Security Conference: AI Elections Accord(ミュンヘン安全保障会議: AI選挙協定) ・World Economic Forum: AI Discussions at Davos 2025(世界経済フォーラム: 2025年ダボス会議におけるAI議論) ・AI Safety Summit Series(AIセーフティ・サミット) |
今回は前編として、AIの安全性を主導する主要な業界団体について解説します。

「GASA(Global Anti-Scam Alliance)」は、AIを悪用した詐欺や不正行為の脅威に対抗するための国際的な連携組織です。AIの高度化に伴い、サイバー犯罪者による詐欺の手口も巧妙化しており、ディープフェイクを利用したなりすましや自動化されたフィッシング攻撃などが増加しています。
これに対応するため、GASAは規制当局、テクノロジー企業、法執行機関と協力し、詐欺対策の強化や啓発活動を進めています※。
※主なメンバー組織は、Amazon、Bitdefender、F-secure、Gen、Google、MasterCard、McAfee、Meta、マイクロソフト、トレンドマイクロなど。
AIを悪用した詐欺は国境を超えて広がるため、GASAは世界各地のサイバーセキュリティ企業と連携を深めています。例えば、トレンドマイクロは、2025年3月26日~27日にイギリスで開催されたGASA主催の国際会議「Global Anti-Scam Summit(GASS)London 2025」の基調講演でAIを悪用したサイバー犯罪やAIエージェントの誤用について講演したほか、詐欺被害防止ソリューションの展示や啓発に関するセッションを行いました。
また、GASAはAIを悪用した詐欺のリスクについての啓発活動にも力を入れています。ウェビナー、ワークショップ、情報提供などを通じて、人々が詐欺の手口を理解し、回避できるよう支援しています。この積極的な取り組みにより、現代のサイバー犯罪の手口に対して強い耐性を持つ社会の形成を目指しています。

「BSA(Business Software Alliance)」は、テクノロジーに対する信頼を構築し一般消費者がイノベーションの恩恵を受けられることを目指して、エンタープライズソフトウェア産業の企業を中心に、1988年に米国で設立された業界団体です※。AIにおいては、イノベーションの促進と安全性・プライバシー基準の遵守を両立させるAI規制の策定を提唱しています。
※主なメンバー組織は、Adobe、AWS、Cisco、IBM、マイクロソフト、Nikon、okta、ORACLE、Paloalto Networks、salesforce、SAP、トレンドマイクロ、Zoom Video Communicationsなど。
BSAは、政策立案者と緊密に連携し、リスクを適切に管理しながら経済成長を促進するAIガバナンスの枠組みを確立することを目指しています。主な重点分野には、AIの信頼性、サイバーセキュリティ、データプライバシーが含まれます。
BSAは2025年の「米国政策アジェンダ(2025 US Policy Agenda)」において、AIの発展を促進しつつ責任あるガバナンスを確保するための戦略的優先事項を提示しています。
BSAの活動の主な重点領域は以下です。
1.信頼できるAI:
BSAは、AIシステムへの信頼を築くことの重要性を強調しています。消費者を保護し、AI開発におけるグローバルリーダーシップを維持するために、高リスクのAIアプリケーションに対する影響評価を義務付ける法整備を提唱しています。
2.スマートで効果的なサイバーセキュリティ:
AIの導入においてサイバーセキュリティが不可欠であることを認識し、各機関や国境を越えたベストプラクティスの統一を推進しています。このアプローチにより、重要インフラや企業技術の安全性を確保し、生活の質を向上させることを目指します。
3.強固なデータプライバシー:
各国における明確で現代的なプライバシー法の制定を提言し、プライバシーに対して一貫性があり高水準の保護が行われることを重視しています。また、企業が個人データを適切に取り扱い、消費者の期待に沿った運用を行うことを求めています。
4.強力なデジタル貿易とデータ転送:
強制力のあるデジタル貿易※ルールと国際データ協定の重要性を強調しています。これらの施策は、米国企業が成長し、国内雇用を支えるために不可欠であり、国境を越えたデータの流れを促進することを目的としています。
※デジタル貿易:デジタル空間を通じた国際経済活動のこと。
5.政府ITと調達の近代化:
実績のある商用技術を活用し、政府サービスの向上を推奨しています。ITインフラの近代化には、マルチクラウド環境の採用、商用技術の優先活用、認証プロセスの簡素化、IT資金調達の見直しなどが含まれます。
6.包括的な経済機会の創出:
STEM、サイバーセキュリティ、コンピューターサイエンス、デジタルスキルの教育へのアクセス向上を目指し、特に支援が必要な地域への拡充を推進しています。技術職業訓練やブロードバンドアクセスの拡大を通じて、全米の雇用機会を増やすことを目的としています。
7.移民政策の見直し:
競争力を維持するため、移民政策の近代化を提唱しています。H-1Bビザプログラム※の更新、雇用ベースのグリーンカード(米国の永住権)の取得容易化、DACA(幼少期に不法入国した移民の救済措置)受益者向けの恒久的な立法解決の支援などが含まれます。
※H-1Bビザ:米国の入国ビザの1つで、特殊技能を有する職業に従事する人のためのビザ。医師、会計士、財務アナリスト、コンピュータプログラマなどが該当する。
8.知的財産保護:
クリエイターを著作権侵害から守りつつ、データ分析やAIのトレーニングを可能にする安定的で予測可能な知的財産の枠組みを求めています。また、アーティストの権利を保護するための「連邦デジタルレプリカ法」の制定を支持しています。
BSAはこれらの優先事項を通じて、AIのイノベーションを促進し、消費者の利益を守り、米国の経済成長を支える政策環境の構築を目指しています。
AI Alliance
「AI Alliance」は、産業界のリーダー、研究者、政策立案者を結集し、責任あるオープンな人工知能(AI)の発展を促進することを目的として設立された組織です※。
※主なメンバー組織は、IBM、Meta、カーネギーメロン大学、Dell Technologies、日立、インテル、JSR、NEC、ORACLE、Red Hat、sakana.ai、SB Intuitions、snowflake、ソニー、stability.ai、東京エレクトロン、東京大学、Uberなど
その取り組みは、以下の6つの主要分野に焦点を当てています。
・スキルと教育:
AI Allianceは、教育イニシアティブ、研修プログラム、探索的研究を支援することで、グローバルなAIの専門知識を育成することを重視しています。学生、専門家、研究者など、さまざまな分野の人々がAIの利用に関する教育にアクセスできる環境を整え、知識の格差を埋めることを目指しています。
・信頼性と安全性:
AIシステムの安全性、信頼性、公平性を確保することがAI Allianceの中核的な使命です。この分野では、AIの性能評価、リスク軽減、信頼性向上のためのベンチマーク、ツール、ベストプラクティスを開発しています。また、アルゴリズムのバイアス、敵対的耐性、脆弱性などのセキュリティ課題に対処し、倫理的なAIの導入に向けた業界基準の策定にも取り組んでいます。
・アプリケーションとツール:
イノベーションの加速を目的に、AI Allianceは高度なツールの構築と共有を推進しています。これには、オープンソースのフレームワーク、ソフトウェアライブラリ、開発キットの作成が含まれ、AI研究者や開発者が、透明性と相互運用性を維持しながら、より優れたAIソリューションを構築できる環境を提供します。
・ハードウェアの最適化:
AIの計算効率を高めるため、AI AllianceはAIハードウェアアクセラレーターのエコシステムの構築を促進しています。これには、チップメーカー、研究機関、ソフトウェア開発者との連携を通じて、AIワークロードの最適化、パフォーマンスの向上、ハードウェアアクセスの障壁低減を目指す取り組みが含まれます。
・基盤モデルとデータセット:
AI Allianceは、大規模なAIモデルであるオープン基盤モデルの発展にも力を入れています。これらのモデルは、多言語対応、テキスト・画像・音声・動画などの複数のモダリティ(データ形式)への適応、科学分野や時系列データ分析などの専門的な用途への応用が可能となるよう設計されています。
・政策提言:
AI Allianceは政策立案者や規制機関と連携し、オープンで持続可能かつ責任あるAIエコシステムを支援する政策を推進しています。革新と倫理的考慮のバランスをとる枠組みを提唱し、透明性、説明責任、包摂性を促進するAI開発の環境づくりに貢献しています。
これらの重点分野に取り組むことで、AI Allianceは先進的でありながらも、倫理的、透明性のある、包摂的なAI環境の構築を目指しています。協力と専門知識の共有を通じて、業界、政府、社会全体にとって有益なベストプラクティスを確立することを目指しています。

「CoSAI(Coalition for Secure AI:安全なAI推進連合)」は、AIの安全性を高めるために、オープンな研究、ベストプラクティス、安全な開発手法を推進する組織です。1993年に設立※されたコンピュータと通信に関する標準化団体の1つOASIS Openのもとで運営されており、産業界、学術界、政府の専門家が協力し、人工知能に関連するリスクへの対応に取り組んでいます。CoSAIは主に4つの分野に焦点を当てています。AIソフトウェアのサプライチェーンの安全性を確保すること、AIを活用したサイバー脅威に対抗するための準備を整えること、AIセキュリティリスクのガバナンスフレームワークを確立すること、そしてAI駆動型エージェントシステムのための安全な設計パターンを開発することです。
※1993年にSGML(Standard Generalized Markup Language) Openの名称で設立。2025年現在のメンバー組織は、トレンドマイクロ、マイクロソフト、Google、NVIDIA、インテル、米国国防総省 統合参謀本部J6司令部、米FBI刑事司法情報サービス課など。
CSA(Cloud Security Alliance)
「CSA: Cloud Security Alliance」は、クラウドコンピューティング環境の安全性を確保するためのベストプラクティスを定義し、推進することを目的としたグローバル組織です。2008年に設立※され、業界の専門家、各種団体、政府機関、企業や個人のメンバーによる専門知識を結集し、クラウドセキュリティに特化した研究、教育、認証、イベント、製品を提供しています。CSAは複数の大陸に活動拠点を持ち、クラウドプロバイダー、利用者、政府、起業家、保証業界など幅広いコミュニティに利益をもたらしながら、信頼できるクラウドエコシステムの構築と維持に貢献しています。
CSAの代表的な取り組みの一つに、Security, Trust, Assurance, and Risk(STAR)レジストリがあります。これは、主要なクラウドコンピューティングサービスが提供するセキュリティやプライバシー管理について公開するためのレジストリで、透明性の確保、厳格な監査、標準の統合を重視するCloud Controls Matrix(CCM)に基づいた包括的なクラウドセキュリティ保証およびコンプライアンスフレームワークを提供しています。
※2025年現在の主なメンバー組織は、マイクロソフト、Oracle Cloud、Google、HUAWEI、IBM Security、oktaなど。
関連記事:クラウドサービスのリスク審査はなぜ疲弊するのか?~実態と業務のヒント~
さらに、CSAはCertificate of Cloud Security Knowledge(CCSK)やCertificate of Cloud Auditing Knowledge(CCAK)といった認証を提供しており、クラウドコンピューティングのセキュリティ分野における専門知識の指標として活用されています。

「C2PA(Coalition for Content Provenance and Authenticity:コンテンツの出所証明と信頼性連合)」は、オンライン上で誤解を招く情報の拡散を防ぐために設立されたJoint Development Foundationのプロジェクトであり、デジタルメディアの出所・履歴(Provenance)を証明するためのオープンな技術標準を開発しています。
Adobe、Arm、インテル、マイクロソフト、truepicといった業界のリーダー企業が協力して設立したこの団体※は、Content Authenticity Initiative(CAI)やProject Originといった既存の取り組みを統合し、デジタルコンテンツの信頼性を確保する包括的なアプローチを推進しています。
※2025年現在の主なメンバー組織は、マイクロソフト、OpenAI、Adobe、Amazon、インテル、Google、Meta、ソニー、BBC、truepicなど。
C2PAの主な貢献は、コンテンツの発行者や制作者、利用者がさまざまなメディアの出所や変更履歴を追跡できる技術仕様を開発していることです。これらの仕様は、デジタルコンテンツにプロビナンスデータ※を埋め込むための枠組みを提供し、コンテンツの真正性と整合性を検証できるようにするものです。
※プロビナンスデータ:データの出自を正確に把握し信頼性を維持するためのメタデータやデータの履歴情報。
AISIC(Artificial Intelligence Safety Institute Consortium)
「AISIC(Artificial Intelligence Safety Institute Consortium)」は、安全で信頼できる人工知能(AI)システムの開発と導入を促進するため、「NIST(米国国立標準技術研究所)」が設立した共同プロジェクトです。2024年2月に発足し、AI開発者や利用者、学術機関、政府機関、産業研究者、市民団体など280以上の組織が参加しています。AISICの主な目的は、科学的根拠に基づいた実証的なガイドラインや標準を策定し、AIの測定や政策の基盤を構築することで、世界的なAIの安全性を確立することです。
AISICは、NISTが設立した「USAISI: U.S. Artificial Intelligence Safety Institute(米国人工知能安全機関)」のもとで運営されており、高度なAIシステムがもたらす課題に対処しています。コンソーシアムの活動には、重要なテーマについて関係者を集めたワーキンググループの設置(生成AIのリスク管理、安全とセキュリティ、合成コンテンツの問題、AIの能力評価、など5つのテーマのWGを設置)、AIの安全性確立に向けたテスト環境やデータセット、ガイドライン、フレームワークの開発、進捗状況や課題に関する継続的な報告が含まれています。
次回は、後編として「安全なAI活用に関するイニシアティブと宣言」について解説します。

石原 陽平
トレンドマイクロ株式会社
セキュリティエバンジェリスト
CISSP。犯罪学学士。経済安全保障コーディネーター。世界各地のリサーチャーと連携し、サイバー犯罪の研究と情報発信を担う。また、サイバー空間における脅威概況や特定専門領域(産業制御システム/IoT/5Gなど)のセキュリティ調査/発信も担当。日本の組織の経営・役員に向けた講習、サイバーセキュリティの国際会議での講演などを通じ、ビジネスとデジタル技術の関係性や、サイバー事故の犯罪学的/地政学的考察に基づく、サイバーリスク対策の啓発を行う。
講演実績:Gartner IT SYMPOSIUM/Xpo™ 2023、SANS ICS Summit 2022、CYBER INITIATIVE TOKYO(サイバーイニシアチブ東京)2022、デジタル立国ジャパン・フォーラム 2022、制御システムセキュリティカンファレンス 2021・2022など

Security GO新着記事
「AIのリスク」に対する世界の取り組みを理解する(前編)~主要な組織編~
(2025年4月2日)
大阪万博(大阪・関西万博2025)で警戒すべきサイバー攻撃と対策
(2025年3月26日)