ChatGPTのセキュリティ:法人組織がChatGPT利用時に気を付けるべきこと~回答内容の真贋チェック・今後の展望編
組織での利活用検討が進むChatGPT。本稿では法人組織がChatGPTを利用する際のセキュリティ上注意すべきポイントを解説します。今回は、ChatGPTの回答内容の正確性への注意点について、考察します。
情報漏洩以外のChatGPT利用におけるリスクとは?
2023年3月、遂にOpenAIからChatGPT APIが公開されました。また、ChatGPTを提供するサービスプロバイダーが日本でも出てきています。ある国内IT企業はこのAPIを利用し、LINE上でbotサービスを早々にリリースしました。このように、活用に早期に乗り出す一方で、情報漏洩が懸念されるとして、その利用に関し注意や制限をかける企業や行政も出てきています※1。
※1 日本経済新聞社「対話AIの業務利用制限 情報流出を懸念」
※1 The Italian Data Protection Authority「Artificial intelligence: stop to ChatGPT by the Italian SA Personal data is collected unlawfully, no age verification system is in place for children」
本稿前編では、主に「従業員がChatGPTを利用する際に気を付けるべきポイント」について考察し、従業員が機微情報を入力してしまうリスクについて解説しました。
しかし、これ以外にも、ChatGPTの利用にあたっては、「回答内容に不正確な情報が含まれるリスク」も存在します。
ChatGPTの回答内容は正確無比なのか?
実際に、OpenAIのFAQでは、「ChatGPTはインターネットに接続されていないため、不正確な回答が返されること」があると記載されています。OpenAIによれば、特に2021年以降の情報については知識が限られており、誤ったり偏ったりした内容が出力されることがあるようです(2023年4月4日現在)。
話題を集めるChatGPTであっても、開発元が認める通り完璧ではないため、自信を持って間違えた回答をすることや、事実ではなく架空のアイデアをあたかも真実として提供することもあるかもしれません。ChatGPTが何を根拠にその回答を出力したかわからないため、その内容が正しいかどうかは、使用者が別の方法で調べる必要があります。この点に留意して、自組織での利用の際にリスクと捉えるべきかどうかを考える必要があるでしょう。
なお、ChatGPTに2022年以降の情報を求めても、下記の通り回答は得られませんでした(図1~3)。またトレンドマイクロについて質問した際も回答に誤りがありました(図4)。
このような特徴から、「利用者が情報の最新状況を別の方法で確認できる状況」、「利用者が回答の真贋をすぐに判別できる分野・テーマ」においてChatGPTを使用することを心掛けないと、判断を見誤る可能性があると言えるでしょう。特に「価値判断」や「情報の正確性」までChatGPTに依存すると非常に危険です。
ChatGPTは組織の武器となり得るのか
進展が目まぐるしいChatGPTですが、2023年3月には最新の自然言語処理モデルであるGPT-4がリリースされ、有償サービスのChatGPT Plusでの利用が可能になりました。その能力の高さは、従来の社会やビジネスのあり方に大きな影響を及ぼす可能性があると言われています。
事実、当社が運営する世界最大の脆弱性発見コミュニティZero Day Initiative(ZDI)が先日開催したハッキングコンテスト「Pwn2Own」において、優勝したClaroty Ltd.の研究者2名は、「コードを書くのにChatGPTを活用し大幅に手作業の時間を短縮できた」とWall Street Journalの取材で答えています。現在のChatGPTの能力では、推論や推論からのシミュレーションに拠るところもあり、どのような回答を返すのか、またその限界値については予測不可能であると言われています。しかし、このように使い方によっては成果をあげる事例が出てきていることは、無視することはできません。現時点では、組織の武器となるかは未知数ですが、その可能性を企業は引き続き注視する必要があるでしょう。
組織は先手を打った対策を
前回の記事、および本稿で述べたようなリスクを勘案したうえで、ビジネス戦略としてChatGPTを現段階で利活用促進するかどうか、組織は判断していくべきです。いずれの場合においても、セキュリティ担当部門においては、従業員の自己判断でChatGPTの利用が進まないうちに、組織としての利用ポリシーを明確に組織内に示すことが肝要です。
ChatGPTは、捉え方によってはクラウドサービスとも言えるため、まずは最低限、組織内のクラウドサービスに対する利用ポリシーをベースラインとして考えることをお奨めします。そのうえで、ChatGPTのポリシーを鑑みて検討すると良いでしょう。同じ言語処理モデルのAIを利用しているサービスとして、翻訳サービスなどがあります。組織内でどのような利用ポリシーでそれらのサービス利用を許可しているでしょうか?これらのサービスでは、概ね、サービス向上を目的に情報を利用するとなっており、有料のAPIプランなどでは情報を利用しないというプライバシーポリシーを設けているようです。
ChatGPTもほぼ同様のポリシーとなっています。もし現状で、これらのサービスに対し「機微情報を入力しないことを条件に利用を許可する」と利用ポリシーを設定している場合は、それと同等のポリシーを検討すると良いでしょう。
また、ChatGPTを利用したサービスプロバイダーのサービスを利用する際には、ChatGPTのポリシーと異なる場合があるため、そのサービスプロバイダーのプライバシーポリシーに関する規約を確認します。まだ利用の実数が少ないと推測できるため、できるだけサービスや提供会社に関する評判なども収集して、リスクが少ないと判断できるかを組織として見定めるようにしましょう。
そのほか、利用する際には、前編でも述べているように、ChatGPTへの会社からのアクセスを制限する(全社員禁止、一部社員のみアクセス可能など)、入力するデータに問題がないかを確認する(ポリシーで入力してはいけない情報を定義する、技術的に送信を禁止する、入力データをチェックする仕組みを作る)、といった点に留意し、常に先んじた対応を心掛けることをお奨めします。しかし、もしこれらの点において、自社の対応に不安が残る場合は、統一して利用を禁止するポリシーを取ることをお奨めします。
一方、実際にChatGPTを利用する従業員サイドにおいても、社内のセキュリティポリシーを常に注意し遵守する、社外の個人利用であっても、個人を類推できる内容や、機微に触れる可能性のある情報を入力していないか、ビジネスパーソンとしての注意を常に払う、など、セキュリティへ意識を向けるよう、メールでの周知や教育の機会などを利用し、積極的に啓もうしていく必要があるでしょう。
まとめ
ChatGPTは本来、実験や探索のために開発された研究用のシステムであり、使用上の安全性が保証された単独のツールというわけではありません。予測不可能な部分が多く、組織がビジネスに深く活用するには現状至っていませんが、急速な進化による利活用の広がりが期待されているのも、また事実です。
法人組織はその利用にあたり、セキュリティ上における懸念を正しく認識した上で、後手に回らないうちに統一したポリシーを持って対応していくことが求められます。ChatGPT自身が注意を促しているように、情報の信ぴょう性にも注意しながら、従業員全員が正しく利活用できるような環境構築に留意すべきです。
また、本記事は利用にあたってのセキュリティリスクを中心にまとめましたが、ChatGPTに注目しているのはサイバー犯罪者も同じであり、ChatGPTがサイバー犯罪に影響を及ぼす可能性にも注意を払うべきです。トレンドマイクロの調べでは、サイバー犯罪者によるChatGPTの悪用事例は確認していませんが、悪用が始まっているとする報告も出始めています。
ChatGPTは自然な言語処理が可能なことから、日本など言語の壁がある地域においても、ソーシャルエンジニアリングやフィッシング攻撃など、海外からのサイバー犯罪者による侵害が拡大するリスクが高まる可能性もあります。
最新の技術動向やリスク動向に継続して注視ください。
関連記事
ChatGPTのセキュリティ:法人組織がChatGPT利用時に気を付けるべきこと ~機微情報と従業員の利用編
ChatGPTが広く注目を集めており、組織での利活用検討が進んでいます。本稿では、法人組織がChatGPTを利用する際のセキュリティ上注意すべきポイント、特に従業員が自組織の機微情報を入力することによる情報漏洩のリスクについて考察します。
Security GO新着記事
ソブリンクラウドとは?プライベートクラウドやガバメントクラウドとの違いを解説
(2024年11月5日)
VPN機器の脆弱性はなぜ管理しづらいのか~ネットワークエンジニアの立場から探る
(2024年11月1日)