ChatGPTの安全性は? 情報漏えいなどのリスクと対策

 2024.05.31  2024.08.26

さまざまな企業で活用され始めている「ChatGPT」ですが、その利便性と共に安全性や起こり得るリスクについても注目されています。果たしてChatGPTの欠点や危険性とは何でしょうか。企業にとって命取りとなる事態を回避するためにも、ChatGPTの安全性についてぜひ把握しておきたいところです。そこで、本記事ではChatGPTを使用する際のリスクや、実際にあった情報漏えいの具体的な事例をピックアップして解説します。さらに、ChatGPTの安全性を高める対策法についても解説するので、ぜひお役立てください。

ChatGPTの安全性は? 情報漏えいなどのリスクと対策

生成AIがもたらす革新と可能性

ChatGPTは安全? 指摘されている8つのリスクを紹介

ChatGPTは、質問を入力するとまるで人間と対話しているような自然な回答が返ってくる言語モデルです。開発元はアメリカを拠点に活動している「OpenAI」で、業務の効率化やアイデア出しなどにも役立つことから注目を集め、ビジネスに活用する企業が増えています。
しかし、便利なだけでなく、そこにはリスクも潜んでいるのが現状です。

機密情報が漏えいする懸念がある

ChatGPTを企業で活用する場合、機密情報の漏えいは最も気をつけるべきリスクのひとつです。ChatGPTには、ユーザーが入力した情報を学習データとして蓄積し、他の回答に利用するケースがあります。つまり、機密情報を入力してしまった場合、第三者の質問に対する回答にその情報が活用される恐れがあるということです。
実際、ChatGPTの使用によって機密コードの流出事故を起こした企業があり、大きな問題となりました。同社は今後同様の事例が起こらないよう、従業員にChatGPTの社内使用禁止令を出しています。
万が一企業内で誰かが入力した機密情報が外部に流出してしまうと、企業組織としての存在危機に関わる大きな問題となります。顧客や取引先からの信頼を失い、事業継続すら危ぶまれる状況に陥る恐れも否めません。
たとえ個人で利用する場合でも、流出すると困る機密情報の入力は避けるよう常に気をつける必要があります。

正確でない情報も混じっている

ChatGPTによる回答が、誤った情報であるケースも考えられます。
そもそもChatGPTは、回答データを生成する際にインターネット上で取得した情報や過去に学習した内容を利用します。つまり、ChatGPTが過去に誤った情報を入手していれば、誤った回答を出力するということです。
さらに、ChatGPTはたとえ回答が誤っていたとしても、いかにも正しい答えと言わんばかりに理路整然と提示するので、ユーザーが正しい情報だと思い込んでしまう恐れがあります。
ChatGPTの回答した内容が100%正しいとは限らないと、意識的に疑念を抱くことは大切です。誤った情報を使用することで企業や個人が被害を受ける恐れもあるので、ChatGPTの回答を活用する場合は、人の手で、それが正しいかどうかのファクトチェックを行いましょう。

サイバー攻撃などに悪用されるリスクもある

ChatGPTは優れた言語モデルです。そのため、たとえ知識が豊富でない人でも簡単に悪意があるプログラムを作成できてしまうため、サイバー攻撃に悪用されるリスクも十分にあり得ます。近年増加しつつあるフィッシングサイトの作成や架空請求メールなど、犯罪に悪用される恐れもあるということです。
しかし、開発元であるOpenAIも、このようなリスクに対して何も対策をしてこなかったわけではありません。たとえば、「フィッシングサイトのコードを教えて」といった不適切な質問をされた場合の回答は拒否するといった対策が施されています。
ただ、このセーフガード機能は万全というわけではなく、残念ながら特定の方法を使えばすり抜けることは可能です。
今後もOpenAI側は継続的に対策を行うはずです。しかし、対応が遅れてしまうとセキュリティ攻撃に利用されたり犯罪目的のプログラムを作成されたりするなど、企業にとって不都合な事例につながる恐れはゼロではありません。

著作権を侵害するおそれがある

ChatGPTには、入力された内容を学習して回答データを生成する機能があります。そのため、過去に入力されたデータを、第三者への回答として活用する場合があります。
この時点ですでに著作権が侵害されていますが、さらに大きなトラブルに発展するかもしれません。たとえば、ChatGPTから得た回答を誰かの著作物とは知らずに、ユーザーが使用してしまうケースです。
この場合、たとえ知らずに使用したとしても、ユーザー側が著作権法違反となってしまう恐れがあります。

ChatGPT自身が攻撃されるおそれもある

ChatGPTが標的になるというリスクもあり得ます。たとえば、AIの学習モデルを攻撃して、意図的に不正確な判断へと導く方法が挙げられます。簡単に言えば、イヌの画像をネコと誤認識させるといった手法です。
また、入力データの偽装によって悪意あるコードを実行させる手法もあります。こちらは「プロンプトインジェクション攻撃」と言われ、ChatGPTを組み込んだシステムやサービスがこの攻撃を受けた場合、情報漏えいに加えて、サイバー攻撃の踏み台にされるリスクも考えられます。

倫理的欠陥のある情報を生成するリスクがある

ChatGPTには、物理的なリスクだけでなく論理的なリスクもあります。たとえば、生成された文章に差別的、暴力的な表現が含まれるケースです。特に、人種差別やジェンダー、セクシャル、マイノリティーなどに対する差別的、暴力的な発言は、そのまま拡散されると企業の信用に関わる問題となります。
あくまでも人工知能により生成される意見であり、ChatGPTは文章の背景にある感情や本心を理解できません。
さらに、学習データに意図しない表現が含まれることで、偏りが生じる場合もあります。ChatGPTの回答から得た情報を企業で活用する場合は、人間による論理的な観点でのチェックが必要です。

法規制やコンプライアンス違反のリスクがある

個人情報の扱いにおいてChatGPTを使用する場合は、適切に運用されていないと各種データ保護法の規定違反となるリスクもあります。
ChatGPTへの個人情報の入力が、自社が公表している個人情報の利用目的と適合しているのか、それが第三者との機密保持義務違反にはならないのかといった点を確認しておく必要があります。

また、ChatGPT のAI機能を利用してAIサービスを展開する場合には「AI規制法」にも注意が必要です。これは2024年3月にEUで可決された世界初の規制法です。AIが人間の豊かな生活を実現するツールとなるよう、リスクや利益を管理することを目的として作られました。
AI規制法はEU加盟国全体に適用される統一ルールですが、日本企業は域外適用の対象です。つまり、日本企業によるサービスであっても、そのターゲットにEU加盟国が含まれている場合は、日本企業にもAI規制法が適用されます。また、EU圏にグループ企業が所在する日本企業が規制法の対象となるAIを使用しても適用される可能性があります。
違反した場合は「最大で3,500万ユーロ(約58億円(1ユーロ=167円))もしくは全世界売上高の7%のどちらか高い方」という莫大な制裁金が科される予定です。さらに、EUでのビジネスができなくなる恐れもあるので細心の注意が必要です。

参照元:The EU AI Act |Penalties 3

業務のサービス依存リスクが増える

ChatGPTの利便性に、人間が頼り過ぎてしまう点がリスクとなり得る場合もあります。日常業務においてChatGPTが活用できるシーンは、メール、文章コンテンツの作成や市場調査から企画立案まで多岐に渡ります。それにより業務の組み立てがスムーズになり、業務の効率化が期待できますが、ChatGPTへ依存しすぎると業務に悪影響を与えかねません。
たとえば、創造力やコミュニケーション能力の低下や学習意欲の減退、個性の埋没やコンテンツの平凡化が懸念されます。さらに、ChatGPTのサービスが停止してしまうと、業務が遂行できなくなるリスクも考えられます。
近頃さまざまな企業で導入されているクラウド(SaaS)でも同様のリスクが存在し、認知され始めていることを考えると、ChatGPTで起こりうる新たなリスクは、決して無視できるものではありません。

ChatGPTをコールセンター業務で活用するためのサンプルプロンプト集
チャットボット製品市場調査

ChatGPTでの情報漏えい事例

前項で紹介した「機密情報が漏えいする懸念がある」というリスクを裏付ける事例について解説します。

ChatGPTに機密情報を入力してしまったケース

ある企業の半導体事業を担う部署において、ChatGPTの使用により短期間のうちに少なくとも3件の情報漏えいが起こりました。
そのうち2件は、設備関連に関するエラーの解決策や最適化案をChatGPTに依頼しようとして、ソースコードを入力したことに起因します。もう1件は、社内会議を録音して文章ファイルに変換し、それをChatGPTに入力して議事録を作成したために会議の内容が流出した事例です。
基本的に、ChatGPTに入力したデータは自動的に開発元であるOpenAIに保持され続け、たとえ電源を切ったとしても消せません。こちらの企業では、従業員がChatGPTにアップロードできるデータの上限を設ける対策を行い、再び同様の情報漏えい事例が起こったら利用を停止するとの警告を出すという対応を行いました。

ChatGPT(OpenAI)側にセキュリティ問題があったケース

次は、ChatGPT を活用する側ではなく、開発元のOpenAI側のミスによって情報漏えいが起こったケースです。
2023年に、有料版「ChatGPT Plus」の会員の個人情報が流出しました。具体的には、氏名・メールアドレス・住所・クレジットカード番号の下4桁と有効期限が表示され、一部のユーザーには他ユーザーのチャット履歴が表示されるという問題も発生しました。
OpenAI側は、短時間オフラインにしてバグの修正を行いましたが、セキュリティ面におけるリスクが存在するということが発覚した事例です。

マルウェア経由でChatGPTのアカウント情報が流出したケース

マルウェア感染による情報漏えいも起こりました。
2023年6月にシンガポールのセキュリティ企業である「Group-IB」より、情報窃取マルウェアに感染したことによってデバイスに格納してあるChatGPTの認証情報が盗まれたと発表されました。それにより、ChatGPTに登録されたユーザーIDやパスワードなどのアカウント情報が約10万件以上流出し、それらは主に闇市(アンダーグラウンドマーケット)で売買されていると報告されました。同様のケースは多発しているのが現状です。
アカウント情報が手に入れば、それを使って不正アクセスが可能になります。ChatGPTの標準設定では、過去の会話履歴が保存されており履歴が参照できるので、会話内に個人情報や企業機密が含まれている場合は、不正アクセスによる情報漏えいが行われる恐れがあります。

ChatGPTを安全に使うための対策

ChatGPTは業務の効率アップにひと役買うこともあり注目度が高い生成AIですが、お伝えしたようにいくつかの懸念点もあります。ここではできる限りリスクを回避して、安全に使用するための対策法をお伝えします。

機密情報は入力しない

ChatGPTに機密情報を入力すると、それらはすべて情報として蓄積されてしまいます。さらに、学習したデータは、今後回答データを生成する時に情報として用いられることを理解しておかなければいけません。
もしそれらが他の人への回答として使用された場合、外部に情報が洩れる恐れもあります。そうなれば、個人で使用する場合も弊害がありますが、企業となると信頼を失い、大きな損失が発生する結果になりかねません。
個人情報はもちろん、顧客情報や事業のノウハウなど、機密情報を入力すること自体を控えれば、未然に防げます。

セキュリティ対策を強化する

具体的な事例でもお伝えしたように、ChatGPTにおける情報漏洩は、マルウェア感染による不正アクセスが原因となることがあります。
これは、ChatGPTを使う際のセキュリティを強化することでしか防げません。
セキュリティ対策ソフトを導入し監視することで、瞬時に不正アクセスの検知が可能です。よって、マルウェアの侵入を阻止して情報漏えいを予防できるので、安心してChatGPTを業務に活用できます。

ChatGPT Enterpriseを利用する

2023年8月にOpenAIが発表した「ChatGPT Enterprise」は、企業向けに設計された有料プランです。より安全にChatGPTを使用したいという企業の声を受けて開発されただけあり、個人用に比べて優れた性能が搭載されています。契約は、企業規模や利用方法によって個別で結ぶ形式で、月額等の利用料金は非公開(要問い合わせ)です。
ChatGPT Enterpriseの主なセキュリティ機能として、入力したデータがChatGPTの学習データとして使用されない点や、送信や保存をする際のデータの暗号化が挙げられます。
暗号化の仕組みにおいては、米国公認会計士協会のサイバーセキュリティフレームワーク(高い水準でセキュリティを維持するための基準)であるSOC2(Service Organization Control Type2)に準拠しています。企業など大規模な利用において便利な機能が搭載されたのも特徴で、具体的な機能は以下の通りです。

  • GRT-4の利用スピードが2倍
  • 文章の入力・理解がChatGPT Plusの4倍
  • データ分析機能「Advanced data analysis」の利用が無制限
  • 管理者向けのコンテンツの充実により一括のメンバー管理が可能
  • チャット機能など企業用に特化したカスタマイズ機能あり

正しい情報かどうかを見極める

ChatGPTは、不特定多数のユーザーから得た情報をもとにして回答データを生成するので、必ずしもそれが正しいとは限りません。間違っている回答を情報として使用するのを避けるためには、必ず正しいかどうかチェックをする必要があります。
事実確認をせずに情報を使用してそれが誤情報であった場合、自身はもとより、第三者や企業全体に被害が及ぶかもしれません。ChatGPTから得た情報を使用する際は、必ずファクトチェックを行うことを徹底しましょう。

ChatGPTに履歴を残さない

ChatGPTに履歴が残っていることが原因で情報漏えいや偏った回答などの原因となることを踏まえ、あえて履歴を残さないようにする対策も効果的です。
そのためには、ChatGPTの設定画面で「Chat history & training(チャット履歴とトレーニング)」機能をオフに設定する方法があります。オフ設定にすれば、入力データが学習に利用されず、プライバシーの保護や情報漏えいのリスクが軽減できるうえにデータ管理の簡素化にもつながります。

・設定変更の手順
設定(Setting)→データ制御(Data controls)→チャット履歴とトレーニング(Chat history & training)をOFFにする

ただし、履歴機能をオフにすることのデメリットも把握しておく必要があります。まずは、過去の会話が参照できなくなるため、特定の情報が必要な場合にそれに特化した回答が得られない点です。さらに、履歴が残らないと、ユーザーのフィードバックも活用できなくなるため、学習能力が制限されてしまい、性能の向上を妨げる恐れもあります。
また、上記の対応を行っても、不正利用等の調査に利用できるよう30日間は履歴が残ります。そのため、不正アクセスによってログインされたタイミングによっては、保存されているデータを盗まれる可能性は排除できません。

業務で利用する場合のルールを定める

業務でChatGPTを使用するなら、リスクやトラブル回避のために企業内でルールを決めるのがおすすめです。明確なルールがなければ、従業員が無意識のうちに誤った使い方をしてしまい、その結果情報漏えいなどにつながる恐れがあります。
ルールの具体例としては、入力すべきでない情報の範囲設定やファクトチェックの実施などです。ルールを決めただけで形骸化しては意味がないため、すべての従業員へ周知を徹底させましょう。また、ChatGPTの利用規約違反とならないよう、使用を始める前に利用規約を確認しておくことも大切です。

ルールにとどめず、ガイドラインを作成して徹底するのもおすすめです。企業や組織でChatGPTを使用する際のガイドラインを作成する際は、一般社団法人日本ディープラーニング協会(JDLA)の公開している生成AIの利用ガイドラインが役立ちます。

参照:一般社団法人日本ディープラーニング協会|生成AIの利用ガイドライン

まとめ

ChatGPTは魅力的なサービスではあるものの、情報漏えいやサイバー攻撃への悪用など、セキュリティに対する懸念点があるのも現状です。まずはどのようなリスク、トラブルが発生する恐れがあるのかを理解する必要があります。そのうえで、効果的な対策を施しながら安全に活用すれば、今後もさまざまな分野での応用が期待できます。

この記事の推奨者

本部 景一
本部 景一
新卒で通信業界の企業に入社し、社内インフラ整備からアプリケーション開発まで幅広い開発業務に参画。その後PMとして教育業界向けWebフィルタリングサービスの立ち上げを担当した。2023年にベルシステム24入社後は言語生成AIの実証実験などを担当している。高速な開発サイクルを実現できる小規模チームや社内環境の構築を得意としている。情報処理安全確保支援士(第22000号)
生成AIがもたらす革新と可能性

RECENT POST「生成AI」の最新記事


生成AI

ChatGPTの問題点とは? 解決方法や今後の展望を解説

生成AI

ChatGPT利用のリスクとは?情報セキュリティ観点から考える

生成AI

ChatGPTとは? 便利な使い方と始め方、できること

生成AI

ChatGPT(チャットGPT)の日本語での使い方は? 日本語設定の有無や注意点

ChatGPTの安全性は? 情報漏えいなどのリスクと対策
生成AI活用でコンタクトセンターの定番業務の自動化はできるのか?
New call-to-action

RECENT POST 最新記事

ブログ無料購読のご案内

RANKING人気記事ランキング

AUTHOR執筆者

OFFICIAL SUPPORTER