ChatGPTのセキュリティ:法人組織がChatGPT利用時に気を付けるべきこと ~機微情報と従業員の利用編
ChatGPTが広く注目を集めており、組織での利活用検討が進んでいます。本稿では、法人組織がChatGPTを利用する際のセキュリティ上注意すべきポイント、特に従業員が自組織の機微情報を入力することによる情報漏洩のリスクについて考察します。
ChatGPTとサイバーセキュリティ
ChatGPTは、人工知能(AI)の研究所OpenAIが開発した自然言語処理モデルで、人工知能を搭載したチャットボットです。様々なトピックに関する質問や会話に対して回答を生成でき、人工知能による自然な対話を実現します。ChatGPTは、サイバーセキュリティ業界へも大きな影響があると言えます*1。
*1 トレンドマイクロセキュリティブログ「ChatGPTがもたらすサイバーセキュリティ業界への影響」
ChatGPTに限った話ではありませんが、新しい技術が登場した際は、それを悪用するサイバー犯罪者が必ず現れます。例えば、2010年頃はスマートフォンを狙うサイバー犯罪はまだ少なかったですが、今やサイバー犯罪者の常套手段と言えます。クラウドの設定不備などを悪用するサイバー攻撃も増加しました。また、サイバー犯罪者に技術が悪用されるという点に加えて、新しい技術が登場した際は「悪意がなく行っていたことが、大きな問題になる」というケースもあります。ChatGPTも、ビジネスでの利活用が検討される反面、法人組織においては自社の機微情報の漏洩に繋がってしまう懸念があることを留意する必要があります。
ChatGPTを法人組織が利用することで起こり得る問題点
では、具体的にどのような問題が起こってしまうのでしょうか?
ChatGPTは様々な質問に対してチャット形式で非常にわかりやすく回答してくれます。そのため、例えば自社の売上を伸ばすための施策を検討する際に、社外には公開していない内部的な売上目標金額や現在の製品別の売上状況などを、個々の従業員が外部にデータを送信しているという意識がなく、チャット上に入力してしまう懸念があります。これはGoogle翻訳などのインターネットサービスでも同じことが述べられますが、業務を効率的に進めたいという従業員にとって便利なツールは、その理由ゆえについ利用しがちになり、「機微情報を外部に送信しているかもしれない」という意識が欠落してしまう懸念があります。実際に、2023年3月末には、海外の電子機器製造企業で、ChatGPT導入早々に半導体などの開発情報が漏えいした恐れがあるという報道がされました。OpenAI公式サイトのFAQでは「機微情報は(ChatGPTとの)会話で共有しないでください」と記載されています(2023年3月26日現在)。「入力」ではなく「共有」という言葉がポイントであり、同サイトでは「会話がシステム改善のためにAIトレーナーによって確認される場合がある」とも記載があります。従って、ChatGPTとの会話で入力している内容は、自分以外の人間に閲覧される可能性について常に考慮すべきと言えるでしょう。
参考までに、ChatGPTに機微情報の入力について質問したところ、「ChatGPTは、一般的な情報を扱うことができますが、機密情報や個人情報など、セキュリティ上の懸念がある情報を扱うことはできません」という回答が返ってきます(図1)。
ChatGPTのセキュリティを考察する
ChatGPTに限った話ではありませんが、ツールやサービスを利用する際は必ずセキュリティ対策の状況やプライバシーの取り扱いを確認することをおすすめします。ChatGPTでは、入力した情報はどのように扱われるのでしょうか?一般的なツールやサービスの公式サイトには「プライバシーポリシー」に関する項目が開示されています(逆に、このような項目が開示されていないツールやサービスは注意すべきでしょう)。
OpenAIのプライバシーポリシーでは、サービスの改善や分析、研究、サービスの悪用防止などのため個人情報を利用する可能性がある、とありますが、同時に個人情報は匿名化され、情報の再識別を試みることはないと記載されています(2023年3月26日現在)。これらは一般的なサービスと概ね同じであり、大きな懸念はないと言えるでしょう。ChatGPTではありませんが、サービスを利用した時点でその情報が公開されるものもあるため、利用者の情報の取り扱いについては注意が必要です。
なお、先のOpenAIのプライバシーポリシーにおいては、法的要件の他に事業譲渡などの特定の状況において、個人情報を第三者に開示する可能性についても言及しています。どのような形態の事業においてもこのような状況は発生し得ますので、自組織が利用しているツール・サービスの運営母体の状況は定期的に把握しておく必要があるでしょう。
ここでも参考までに、ChatGPTに質問をしたところ、ChatGPTに入力したデータは、OpenAIによって保持され、サーバ上に保存されるとありますが、適切に保護するのため技術的・組織的な措置を講じていると回答されました。また、OpenAIは、ChatGPTの開発や改善のために、一部のデータを分析することがありますが、個人情報を特定できないように処理され、匿名化されたデータのみを使用するとのことです(図2)。
加えて、昨今は経済安全保障上の問題などでデータが保存される国や地域についても留意する必要があります。OpenAIのAPIに関するガイドによると、サービスに関するインフラはアメリカ合衆国にあると明記されています(2023年3月26日現在)。と同時に、今後は冗長性確保のためグローバル展開も検討しているようです。
ChatGPTへの質問でも、アメリカ合衆国にあるサーバにデータを保存しているとの回答でした(図3)。「OpenAIは、アメリカ合衆国の法律や規制に従ってデータを処理しています。これには、アメリカ合衆国の国家安全保障法に基づく政府機関によるアクセスが含まれます」とのことですが、これは日本国内でも犯罪などにインフラが利用された際に法執行機関などに差し押さえされる可能性がある、という話と同様ととらえておくとよいと思われます。
自組織でサービスを利用する際、そのサービスのセキュリティ対策について監査などを行うこともあると思いますが、まずは公開情報などをもとに確認するとよいでしょう(今回の場合、OpenAIのプライバシーポリシーに概要の記載があります)。
ChatGPTへの回答でも、暗号化、アクセス制御、ファイアウォール、サーバの監視、データのバックアップなど様々なセキュリティ対策を講じていることが伺えます(図4)。
このようにChatGPTの回答によると、ChatGPTも一般的にサービスを提供している事業者と同様にセキュリティ対策を実施しているようです。しかし、不具合やサイバー攻撃などでデータが漏洩してしまう可能性はあるということは、法人組織は必ず考えておく必要があります。OpenAIは、2023年3月24日(現地時間)に、不具合により一部のChatGPTユーザの情報が別のユーザに表示されてしまう問題があり、調査と改修のため一時的にサービスを中断していたことを発表しました※2。さらにこの問題と関連して、2023年3月末にはイタリアの個人情報保護機関(英:The Italian Data Protection Authority)が、データの収集と処理に関する法的根拠の不明確性と利用者の年齢確認の仕組みがないとして、一時的に使用を禁止すると発表しました※3。
*2 OpenAI「March 20 ChatGPT outage: Here’s what happened」
*3 The Italian Data Protection Authority「Artificial intelligence: stop to ChatGPT by the Italian SAPersonal data is collected unlawfully, no age verification system is in place for children」
このような問題が起こった際は、自社に影響があるのかなどを確認することが必要です。
従業員がChatGPTを利用する際に気を付けるべき3つのポイント
それでは、法人組織がChatGPTを利用する際に気を付けるべきポイントはどのようなものがあるのでしょうか?
法人組織のビジネスを推進するために、ChatGPTを利用するか否かを判断することが求められますが、まずは、従業員の自己判断でChatGPTを利用しないように組織としてのポリシーを明確に示すことが肝要です。会社としての利用ポリシーを明示して、従業員にメールなどで周知する必要があります。
また、いくら利用しないようにと周知したとしても、実際には利用できてしまうという状況ではあまり実効性がないでしょう。使用させない場合もしくは一部の従業員のみにアクセスを許可する場合は、該当のサービスへの会社からのアクセスを制限する必要があります。制限する方法はプロキシやWebフィルタリングなどを利用することで実現できます。
さらに、ChatGPTを利用する場合、入力するデータに問題がないかを確認することが求められます。これは事前にポリシーで機微情報の入力はしないということは明確にしつつ、万が一を考えて一部の情報に関しては技術的に送信を禁止するといった対策が必要です。例えば、自社として最高機密に該当する情報についてはコピー&ペーストをできなくするといったことで、リスクは減らすことができます(手入力することは出来てしまうので、抜本的な対策というのはChatGPTについては難しいと言えます)。入力しているデータは上長やシステム部門が必ず確認するといったチェック体制を敷くといった対策も有効と言えます。
上記のポイントを整理すると、自組織の従業員がChatGPTを利用する際に気を付けるべき3つのポイントは以下の通りです。
・ChatGPT利用に関するポリシーを明確にして、従業員に周知する
・該当のサービスへの会社からのアクセスを制限する(全社員禁止、一部社員のみアクセス可能など)
・入力するデータに問題がないかを確認する(ポリシーで入力してはいけない情報を定義する、技術的に送信を禁止する、入力データをチェックする仕組みを作るなど)
なお、ChatGPTでは、以下の5つを法人組織が留意すべきポイントとして回答しています。
ここまでChatGPTとサイバーセキュリティについて解説してきましたが、ChatGPTをはじめとした「ジェネレーティブAI」が、セキュリティ業界を含む様々なビジネスを大きく動かすシンギュラリティ(技術的特異点)になることは間違いないと言えるでしょう。そのため、法人組織は新しい技術が登場した際、その利活用及びセキュリティ上の懸念などを確認し、社内に徹底することが求められます。
関連記事
ChatGPTのセキュリティ:法人組織がChatGPT利用時に気を付けるべきこと~回答内容の真贋チェック・今後の展望編
組織での利活用検討が進むChatGPT。本稿では法人組織がChatGPTを利用する際のセキュリティ上注意すべきポイントを解説します。今回は、ChatGPTの回答内容の正確性への注意点について、考察します。
Security GO新着記事
ダークパターンとは?企業にとってのリスクを解説
(2024年11月20日)
PPAPだけじゃない?セキュリティリスクにつながりかねない商習慣3選
(2024年11月20日)
病院でランサムウェア被害が起きたらどうする?ボードゲームでシミュレーション
(2024年11月19日)