AIによる情報漏洩事例選5!懸念されるリスクや対策の方法を解説
ほんの数年の間に驚くほど広がった生成AIは、短期間で私たちの生活に深く浸透し、便利さと同時にリスクをもたらしています。
生成AIを利用するうえで、誰もが直面する可能性があるリスクのひとつに、情報漏洩があります。とはいえ、どんな行動が情報漏洩につながるのかを、具体的に理解している人は少ないかもしれません。
そこで本記事では、生成AIを活用する際に起こり得るトラブルや、具体的な情報漏洩の事例、情報漏洩を防ぐための対策について、詳しく解説します。

生成AIによる情報漏洩は発生する?

生成AIとは、膨大な情報をもとに、文章や画像、ソースコードなどを生成するAIのことです。皆さんも一度は耳にしたことがあるであろう代表的なサービスにChatGPTが挙げられます。チャット形式で質問に対して回答を提供してくれるサービスで、専門的な知識がなくても簡単に利用することができます。
では、ChatGPTを利用することで、情報漏洩のリスクはあるのでしょうか?ChatGPTを開発・運営しているOpenAI社は、情報漏洩のリスクに対し、次のようなセキュリティ対策を講じています。
- データの暗号化:通信中および保存中のデータを暗号化し、外部からの不正アクセスやデータ漏洩を防ぎます。
- データの最小化:個人を特定できる情報は最小限に管理され、不要なデータは速やかに削除されます。
- 不審なアクティビティの監視:システム内での不審な動きや異常なデータアクセスを自動的に検知する仕組みが導入されています。
- アクセス制限:権限を持つユーザーのみがデータにアクセスできる厳格なアクセス制御が実施されています。
- 定期的なセキュリティ監査:定期的に外部機関による侵入テストやセキュリティ監査を行い、脆弱性を早期に発見し、対策を講じています。
このように情報漏洩対策が講じられているため、ルールを守って利用すれば、基本的には安全にサービスを利用することができるでしょう。ただし、100%安全なシステムは存在しないため、機密情報や個人情報を扱う際には、常に慎重な対応が求められます。

ノートン 360の無料体験版をお試しいただけます
30日間無料体験版では包括的なウイルス対策、デバイスセキュリティ機能、オンラインプライバシー機能が利用いただけます。
情報漏洩などのAI活用で懸念されるリスク
蓄積されたさまざまな分野のデータを活用し、全く新しい技術によって、私たちの生活をより豊かに変えているAIですが、反面、これまで予想し得なかった新たなリスクも生まれています。AIを安全に利用するためには、これらのリスクを把握しておくことが重要です。では、具体的にどのようなリスクが考えられるでしょうか。
AI活用で懸念されるリスク① 情報漏洩
生成AIを利用する際にユーザーが入力した情報は、AIが学習するためのデータとして保存されることがあります。例えば、社員が企業の機密情報や顧客情報を対話型生成AIに入力してしまうと、AIがその情報を学習し、別の問い合わせに対する回答として利用する可能性があります。
また、一般的な情報漏洩と同様、不正アクセスによるデータ流出や、AIのシステムそのもののバグにより情報が流出してしまう可能性もあります。
AI活用で懸念されるリスク② ハルシネーション
ハルシネーションは「幻覚」という意味を持ち、生成AIが、事実に基づかない情報を事実であるかのようにアウトプットしてしまう現象を指します。原因としては、学習データの不足や、偏りや誤りのある情報による学習、さらにAIの推測を加えた回答の生成などが挙げられます。
また、現在の生成AIは倫理的判断が難しく、ハルシネーションと同じ理由から差別的で偏見を含む回答が生成されてしまう可能性があります。
誤情報のアウトプットによる被害は、企業の信用喪失やフェイクニュースの拡散、人権侵害にまで及ぶ可能性があります。
AI活用で懸念されるリスク③ ディープフェイク
コンピューターが自動で大量のデータを解析し、データの特徴を抽出する技術をディープラーニングといいます。ディープフェイクとは、この技術を活用して複数の画像や動画、音声を合成し、実在しない映像や画像を創り出す手法であり、映画やCMの制作などで利用されています。
ディープフェイクの技術は大きく進化し、今では、PCやスマートフォンを使って誰でも簡単に作成できるようになりました。特定の人物が実際には取っていない行動をあたかも取ったかのように見せる動画を作ることが可能で、この技術が悪用され、問題となるケースが増えています。
AI活用で懸念されるリスク④ 権利侵害
AIが学習する膨大なデータの中には、著作権のあるコンテンツが含まれている可能性があります。その結果、生成されたコンテンツが既存の著作物に類似することも考えられます。
文化庁は、AIの学習用データとして著作物を利用する場合は、著作権者の許諾は不要としています。
ただし、必要と認められる限度を超えた利用や、著作権者の権利を不当に侵害している場合は、著作権者の許諾なく利用することはできません。
また、AIを用いて生成された文章や画像を公開、販売する際には、通常の著作権法と同じ基準で判断され、場合によっては損害賠償請求や差止請求の対象になる可能性もあります。
AI活用で懸念されるリスク⑤ プロンプトインジェクション
プロンプトインジェクションとは、AIに特殊な指示(プロンプト)を与えることで、システム開発者の想定外の動作をさせるサイバー攻撃です。
プロンプトインジェクションにより、本来はアクセスできない機密情報を引き出したり、巧妙な指示でAIに不正なコマンドを実行させるなどの攻撃が考えられます。
生成AIによる情報漏洩事例5選

生成AIの普及に伴い、これまで想定していなかったようなパターンの情報漏洩のリスクも増大しています。では、具体的にはどのようなトラブルが起きているのでしょうか。
実際に起きた、生成AIによる代表的な情報漏洩事例を5つ紹介します。
生成AIによる情報漏洩事例① バグによる情報漏洩
2023年3月、OpenAI社は、ChatGPTの技術的な不具合により、ユーザーのチャット履歴のタイトルが誤って別のユーザーに表示されるという問題が発生したことを発表しました。OpenAI社は、すぐにChatGPTのサービスを停止し、バグを修正してサービスを再開しましたが、万が一、プロンプトに企業の機密情報や顧客の個人情報が含まれていた場合、これらの情報が社外に流出してしまう可能性がありました。
生成AIによる情報漏洩事例② 顧客情報漏洩
ChatGPT Plus(有料版)の会員の支払いに関する情報を記載した確認メールが、誤って別のChatGPT Plusユーザーに送信されたことが判明しました。また同時期に、アカウントの管理画面でも別のユーザーの情報が表示されていました。
誤表示された顧客情報には、ユーザーの氏名、メールアドレス、支払い先住所、クレジットカードの種類、クレジットカード番号の下4桁、有効期限が含まれていました。この事例は、生成AIに限らず、情報化社会の中でいつでも起こりうるトラブルです。万が一、悪意ある第三者に情報が渡ることがあれば、取り返しのつかない問題に発展する可能性があります。

ノートン 360の無料体験版をお試しいただけます
30日間無料体験版では包括的なウイルス対策、デバイスセキュリティ機能、オンラインプライバシー機能が利用いただけます。
生成AIによる情報漏洩事例③ アカウントの売買
2023年6月、シンガポールのセキュリティ企業Group-IBが、10万件を超えるChatGPTのアカウント情報(IDとパスワード)が、ダークウェブと呼ばれる非合法なインターネット市場で取引されていることを報告しました。
アカウントを購入する目的は、アカウントの所有者がChatGPTとの会話で入力した可能性のある機密情報や、個人情報の閲覧だといわれています。対話型AIに入力した情報の流出は、AIの学習機能によるものだけではありません。慎重な情報の選別が必要です。
生成AIによる情報漏洩事例④ 機密情報入力による漏洩
韓国の大手電機メーカーであるサムスン電子では、エンジニアが社内機密のソースコードを生成AIに入力してデバッグ(プログラムのバグを見つけて修正する作業)を依頼し、生成AI経由で情報が流出したことが発覚しました。
これを受けて、サムスン電子では従業員によるAI搭載チャットボットの使用を制限しています。
システム開発における生成AIの活用は、今後ますます普及していくことが予想されます。安全に業務に組み込むためには、社内ガイドラインの整備が急務と言えるでしょう。
生成AIによる情報漏洩事例⑤ データベースシステムの不備
2024年3月、リートンテクノロジーズジャパンが、自社が運営する対話型生成AIサービス「リートン」において、データベースシステムの不備により、第三者がユーザーの登録情報やプロンプトの内容を閲覧できる状態であったことを公表しました。
一定期間、第三者によるニックネーム、入力プロンプトとその生成結果、登録時に入力したメールアドレス、登録時に入力したSNSサービス「LINE」のIDの閲覧と編集が可能な状態でした。
生成AIによる情報漏洩事例に対する世界各国の動向

AIの急速な進化に伴い、さまざまなリスクや倫理的問題が生じているものの、規制が追い付いておらず、世界各国の政府は対応を迫られています。ここでは、世界の主要国におけるAIに対する政策方針や最新の動向について解説します。
EU 欧州AI法案可決
2024年5月、欧州委員会は、AIを包括的に規制する「EU AI規制法」を採択しました。この法律は、リスクを4段階(最小リスク、限定的リスク、ハイリスク、容認できないリスク)に分け、段階ごとに活用の禁止や人工生成物のラベル付け、人間による監視など、さまざまな義務が定められています。
例えば、ディープフェイクなどの生成AIコンテンツは、AIによって生成されたものであることを明示する必要があります。この法律は、2026年から全面的に施行される予定です。
一方で、世界で競争が激化するAI開発に対し、積極的に支援する方針も打ち出しており、AI法案には、隔離された環境下で革新的なAIシステムの開発が可能とする規制緩和策「AI規制サンドボックス」も盛り込まれています。
アメリカ 大統領令発令
2023年10月、AI業界の主要企業が集まるアメリカでは、「安全で信頼できるAIの開発と使用に関する大統領令」が発令されました。 AIシステムの開発者に対する、安全性テストの結果等を連邦政府への共有の義務化や、信頼性のあるAIシステムを開発するためのガイドライン策定など、セキュリティに関する取り組みが盛り込まれています。
しかし、これらはAIの進歩を妨げるものではなく、倫理的で信頼性の高い、公共の利益になるようなAI技術の進歩を目指したものであり、大統領令発令に先駆け、2023年5月には、新たに国立のAI研究機関を設立や、1億4000万米ドルの資金提供の実施を発表しています。
中国 独自の生成AIが発展
中国では、ChatGPTなど外国製の生成AIの利用が制限されており、自国開発の生成AIに力を入れています。政府による強力な支援の下、ファーウェイやアリババといった大手IT企業に加え、大学やベンチャー企業も積極的に参入し、中国独自の生成AIが急速に発展しています。
一方で、AIの普及に伴い、失業問題の深刻化や情報操作のリスク、さらには生成AIを用いた詐欺やデマの拡散といった新たな課題も浮上しています。そのため、中国政府はAIの安全な利用を確保するため、独自のAI規制を進めています。
生成AIによる情報漏洩の対策方法
禁止事項の明確化
企業内で生成AIを利用する際、機密情報や顧客情報など、生成AIへの入力を禁止する事項をリスト化することで、社員全員がより明確に把握できるようになります。
例えば、システム開発において生成AIを活用するプログラマーは多くいますが、機密情報となりうるソースコードの入力は禁止する必要があるでしょう。また、顧客への返信メール作成に生成AIを利用する場合、顧客を特定できる情報は入力しないよう注意が必要です。
ChatGPT Enterpriseを利用する
ChatGPT Enterpriseは、企業向けに設計された、セキュリティとプライバシーに配慮したChatGPTのプランです。ChatGPT Enterpriseでは、生成AIに入力した情報がAIの学習に利用されることはありません。また管理者は、利用者のアクセス制限や、使用状況の分析情報を確認することができます。さらに、通信時および保存時において、すべてのデータが暗号化され、米国公認会計士協会(AICPA)による国際的なセキュリティ基準であるSOC 2に準拠しています。
社内で生成AIの導入を検討する際は、ChatGPT Enterpriseのような、より高度なセキュリティ対策が施されたツールを選ぶことで、情報漏洩のリスクを軽減することができるでしょう。
情報漏洩対策ツールの導入
情報漏洩対策ツールの中には、生成AIに対する対策を組み込んだものも多くあります。例えば、ログイン時に社内のガイドラインをポップアップ表示するものや、プロンプトに機密情報が含まれる場合に自動でブロックしてくれるもの、利用者の入力内容を管理者が確認できる仕組みなど、ツールによってさまざまな機能が搭載されています。生成AIの利用目的や業務内容によって、最適な対策ツールの導入を検討してみましょう。
まとめ
生成AIは、驚くほどのスピードで進化し、私たちの生活にさまざまな利益をもたらしています。一方で、この便利なツールの普及により、これまではなかった大きなリスクと向き合う必要に迫られています。最新技術に伴うリスクに関する知識を深め、適切な対策を講じることで、ますます進化を続ける生成AIを安全に活用していきましょう。

ノートン 360の無料体験版をお試しいただけます
30日間無料体験版では包括的なウイルス対策、デバイスセキュリティ機能、オンラインプライバシー機能が利用いただけます。
編集者注記: 私たちの記事は、教育的な情報を提供します。 私たちの提供物は、私たちが書いているすべての種類の犯罪、詐欺、または脅威をカバーまたは保護するとは限りません. 私たちの目標は、サイバーセーフティに関する意識を高めることです。 登録またはセットアップ中に完全な条件を確認してください。 個人情報の盗難やサイバー犯罪をすべて防ぐことは誰にもできないことと、LifeLock がすべての企業のすべての取引を監視しているわけではないことを忘れないでください。 Norton および LifeLock ブランドは、Gen Digital Inc. の一部です。