Actualité

「シャドーAI」が企業に忍び寄る:機密情報入力のリスク

従業員が無断で利用する生成AIが、情報漏洩や法規制違反の深刻な脅威となっている。管理職層の意識の低さが事態を助長している。

2
「シャドーAI」が企業に忍び寄る:機密情報入力のリスク
従業員が無断で利用する生成AIが、情報漏洩や法規制違反の深刻な脅威となっている。管理職層の意識の低さが事態を助長している。Credit · Yahoo!ニュース

要点

  • 従業員の約23%が、会社に無断で利用する生成AI(シャドーAI)に機密情報を入力していた。
  • 管理職クラスでは、機密情報をシャドーAIに入力する割合が一般社員の約2倍(37.5%)に上る。
  • 従業員の約40%が、社内AI利用ガイドラインの内容を「わからない」と回答した。
  • 明確なAI利用ルールが周知されている企業はわずか11.8%にとどまる。
  • 20%を超える組織で、従業員が会社に知られずに保護されていないAIツールを使用している。
  • 無料AIへの機密情報入力は、NDA違反や個人情報保護法違反につながる可能性がある。

企業に広がる「シャドーAI」の影

会社に内緒で個人の生成AIを業務に使う「シャドーAI」が、静かに、しかし急速に企業内で広がっている。これは、悪意ではなく、単に「便利さ」を求める従業員の切実な需要から生まれている。承認プロセスが複雑、あるいは存在しない環境では、従業員は自ら解決策を見つけ出す傾向にある。 ChatGPTのようなツールは職場で一般的になり、多くの企業が業務機能で利用している。経営層でさえ、チームにAI活用を促し、雑務の削減や業務プロセスの効率化を目指している。AIの能力を確かめる最善の方法は、実際に様々な場面で使ってみることだという認識が共有されている。 しかし、この「便利さ」の追求が、企業にとって手遅れになるまで気づかない深刻なリスクを潜ませている。一見無害な時短テクニックに見える行為が、情報漏洩や法規制違反といった致命的な事態を招きかねないのだ。

機密情報入力、管理職層で顕著なリスク意識の低さ

GRASグループの調査によれば、シャドーAI利用者の約23%が顧客リストや契約書といった機密情報を入力していた。さらに驚くべきは、役職による意識の差だ。一般社員の18.8%に対し、課長・部長クラスでは37.5%と約2倍に跳ね上がる。これは、リスクの高い行為に手を染める管理職層の割合が高いことを示唆している。 SHIFT AIの調査でも、社内ガイドラインを「わからない」と答えた社員が39.8%に達し、明確なルールが周知されている企業はわずか11.8%という実態が明らかになった。公認AIを利用している管理職でさえ、約40%が機密情報を入力しているという事実は、問題が単なるツールの利用方法ではなく、根本的な意識の低さにあることを物語っている。 この意識の低さは、従業員が検索エンジンを使う感覚で、機密性の高い会議メモをChatGPTに貼り付けて要約させる行為にも表れている。本人はリスクを認識していないが、その行為は企業に計り知れない損害を与える可能性がある。

「シャドーAI」の定義と広範な利用実態

「シャドーAI」という言葉は、どこか不気味な響きを持つかもしれない。しかし、その実態は、従業員が会社の承認を受けずにAIツールを使用することを指す、より現実的な現象である。これは、一部の限られた問題ではなく、IBMの「2025年データ侵害コストレポート」によれば、20%を超える組織で、従業員が会社に知られないまま、保護されていないAIツールを使用しているという。 若手アナリストがClaudeを使ってプレゼン資料の体裁を整えるだけであれば、一見問題ないように聞こえるかもしれない。しかし、そのために未公表の決算報告書を貼り付けていたらどうだろうか。あるいは、人事マネージャーが内定通知書の作成を早めるためにAIツールを使い、機密性の高い給与データを入力していたらどうだろうか。 こうした行為は、AIの得意分野である雑務の効率化という側面を持つ一方で、企業が自社データとその使われ方を管理できなくなり、セキュリティ上の深刻な破綻につながるおそれがある。セキュリティアドバイザーは、これが企業にとって最大のセキュリティの盲点になり得ると指摘している。

情報漏洩だけではない、潜在的な法的・契約的リスク

シャドーAIの利用は、単なる情報漏洩のリスクにとどまらない。無料AIへの機密情報入力は、秘密保持契約(NDA)違反や個人情報保護法違反に直結する可能性がある。たとえ実際に情報が漏洩していなくても、これらの違反行為が発覚した場合、取引停止などの致命的なダメージを企業が負う可能性は否定できない。 企業が自社のデータとその使われ方を管理できなくなることは、セキュリティ上の深刻な破綻を招く。これは、AI時代を生き抜く上で、企業が直面する最も重大な課題の一つである。AIの可視化やシャドーAIの検出といった機能が、こうしたリスクに対処するための鍵となるだろう。 AIの能力を試すことは重要だが、その過程で発生するリスクを管理し、従業員の意識を高めるための具体的な対策が、今まさに求められている。

企業が取るべき対策と今後の展望

シャドーAIの蔓延に対処するため、企業は明確なガイドラインの策定と周知徹底が不可欠である。SHIFT AIの調査が示すように、社内ルールの不明確さが従業員の無自覚なリスク行動を助長している。従業員が「わからない」と答える状況をなくすためには、より分かりやすく、アクセスしやすい情報提供が求められる。 また、公認AIツールの導入と、それらの安全な利用方法に関する継続的な教育も重要となる。従業員が便利さを求めてシャドーAIに頼る背景には、既存の業務プロセスやツールの限界がある場合も少なくない。経営層は、従業員が安全かつ効率的に業務を進められる環境を整備する必要がある。 クラウドストライクのような企業は、AIの可視化やシャドーAI検出といった新機能を提供し、企業がAI時代のリスクに立ち向かうための支援を始めている。しかし、最終的な解決策は、技術的な対策と、従業員一人ひとりのリスクに対する意識改革の両輪によって達成されるだろう。

まとめ

  • 従業員が無断で利用する「シャドーAI」が企業内で拡大しており、機密情報入力のリスクが高まっている。
  • 管理職層ほどシャドーAIに機密情報を入力する割合が高く、リスク意識の低さが問題となっている。
  • 社内AI利用ガイドラインの不明確さや周知不足が、従業員の無自覚なリスク行動を助長している。
  • シャドーAIの利用は、情報漏洩だけでなく、NDA違反や個人情報保護法違反といった深刻な法的リスクを伴う。
  • 企業は明確なガイドライン策定、従業員教育、安全なAIツールの提供を通じて、シャドーAIのリスクに対処する必要がある。
  • 技術的な対策と従業員のリスク意識改革の両方が、AI時代の企業セキュリティ強化に不可欠である。
Galerie
「シャドーAI」が企業に忍び寄る:機密情報入力のリスク — image 1「シャドーAI」が企業に忍び寄る:機密情報入力のリスク — image 2「シャドーAI」が企業に忍び寄る:機密情報入力のリスク — image 3「シャドーAI」が企業に忍び寄る:機密情報入力のリスク — image 4「シャドーAI」が企業に忍び寄る:機密情報入力のリスク — image 5「シャドーAI」が企業に忍び寄る:機密情報入力のリスク — image 6
詳細