はじめに
NTTビジネスソリューションズの鶴田です。
最近話題の生成AIツール”Microsoft 365 Copilot”はとても便利ですが、何も考えずに導入してしまうと、機密情報の漏洩など、思いがけないセキュリティ事故につながってしまうリスクがあります。 本記事では、無防備にMicrosoft 365 Copilotを導入してしまうと、セキュリティリスクが増す理由と対処方法を解説させていただきます。
対象読者
本記事が想定する対象読者は以下の通りです。
- Microsoft 365 Copilot におけるセキュリティ対策に興味がある方
- Microsoft 365 Copilot の導入を検討されている方
- Microsoft 365 Copilot を利用されている方
- "AI × セキュリティ"全般に興味がある方
Microsoft 365 Copilot とは
Teamsなどの Microsoft 365 アプリに組み込まれたAI機能のことです。
プロンプト(自然言語)で Microsoft 365 内のデータを操作(グループチャットの要約 等)することができます。

引用元: Microsoft Teams のチャットとチャネルで Copilot を使用する
Microsoft 365 Copilot と Microsoft 365 データの関係
Microsoft 365 Copilot におけるセキュリティを考える上で、最初に押さえておくべきポイントは、Microsoft 365 Copilot と Microsoft 365 データの関係についてです。
Microsoft 365 Copilotは、Microsoft 365 内のいかなるデータにもアクセスできるのでしょうか??
答えは、"いいえ"です。
大原則として、Microsoft 365 Copilotは、その Microsoft 365 Copilot を操作しているユーザが保持する ”Microsoft 365 データへのアクセス権”に基づいて動作します。

たとえば、以下のプロンプト①は、ユーザAは自分自身の Exchange Online のメールデータにはアクセス可能なので機能する可能性があります。しかしながら、プロンプト②は、ユーザAはユーザBのExchange Online のメールデータにはアクセスできないので機能しません。
〇:プロンプト① ユーザA「昨日自分が受信したメールで未返信のものを教えて」
×:プロンプト② ユーザA「ユーザB個人が受信したメールで重要そうなもの教えて」
Microsoft 365 Copilot におけるセキュリティリスクと対処方法
では、次に Microsoft 365 Copilot の利用において、どのようなセキュリティリスクがあるのか見ていきます
たとえば、以下のようなシナリオが考えられます。

一般社員であるユーザAは、本来「経営に関わる重要な情報」へアクセスできません。しかし、ユーザAに対し、ファイルへの過剰なアクセス権が付与されている場合、Microsoft 365 Copilot は、「経営に関わる重要な情報」を回答してしまう可能性があります。
アクセス権のかけ方(フォルダ単位のアクセス制御)
シンプルな対処方法は、フォルダ単位でアクセス制御をしておくことです。以下のようなフォルダ構成にしておき、ユーザAに経営フォルダにアクセス権を付与しなければ、ユーザAによる「経営に関わる重要な情報を教えて」というプロンプトは機能しなくなります。

ただ、この対処方法には落とし穴があります。たとえば、経営フォルダにアクセス可能な経営幹部が間違って(またはソーシャルエンジニアリングなどの意図的な攻撃により)、ファイル①を、一般社員フォルダにコピーしてしまうリスクがあります。
一般社員であるユーザAは、一般社員フォルダへはアクセス可能ですので、「経営に関わる重要な情報を教えて」というプロンプトは機能する可能性が出てきます。

アクセス権のかけ方(秘密度ラベルによるアクセス制御)
フォルダ単位のアクセス制御でも、セキュリティリスクは残存してしまうため、秘密度ラベルによるアクセス制御がおすすめです。
秘密度ラベルは、Microsoft Purviewの機能の一つです。 秘密度ラベル自体にユーザへのアクセス権限を設定した上で、ファイルに紐づけて利用します。
秘密度ラベルが紐づけられたファイルは、仮にコピーされても秘密度ラベルも一緒にコピーされるため、ファイルへの適切なアクセス権が維持される仕組みになっており、よりセキュアです。

ただし、秘密度ラベルによるアクセス制御も完璧なセキュリティを担保するものではありません。 たとえば、ファイルに紐づけられている秘密度ラベルを別の秘密度ラベル(アクセス制限が緩いもの)に付け替えられてしまう可能性もあります。そのため、多層防御の考えに則り、フォルダ単位のアクセス制御と秘密度ラベルによるアクセス制御を併用するのが望ましいでしょう。
その他のセキュリティ対策
ここまでは、データへのアクセス権の観点でのセキュリティリスクを紹介しました。
他にも様々な観点でのセキュリティリスクを考慮する必要がありますので、いくつか紹介させていただきます。
コミュニケーションコンプライアンス
Microsoft 365 Copilot の不適切または危険なプロンプトを検出できる機能です。
こちらは、元々 Microsoft 365 Copilot に特化した機能ではなく、Teamsなどでの人同士のコミュニケーションに不適切な内容(ハラスメント等)が含まれていた場合に検出できる機能でしたが、検出対象が Microsoft 365 Copilot へのプロンプトにも拡張されました。

AI用 DSPM – アクティビティエクスプローラ
組織内で利用されている Microsoft 365 Copilot に投入されたプロンプトを、管理者は確認することが可能です。Microsoft 365 Copilot の利用において何か問題が発生した場合に、監査用途でも利用できます。
Microsoft 365 Copilot の利用者の皆様は、管理者にはプロンプトを見られている可能性があるので、不用意な使い方はしないように注意していただければと思います。


DLP
重要なデータの組織外流出を防止するための機能です。現時点では、Microsoft 365 Copilotとは直接関連がないですが、将来的に、Microsoft 365 Copilot の機能が拡充され、自然言語でメール送信などが実現できてしまうような時代になると、DLP観点も意識しておく必要があります。
まとめ
従来のソフトウェアはコードで記載された通りにしか動かなかったため、ある意味、セキュリティ対策もしやすかったです。しかしながら、AIは人間の想定を超える動きをすることがあるため、AIの利用に際しては、今まで以上にセキュリティを考慮する必要があります。
最近では、AIエージェントを人間と同じようにIDで管理していく潮流もあります。AIの進化は本当に日新月歩で、セキュリティも並走していく必要があります。本ブログではAI時代に役立つセキュリティ情報を発信していきたいと思います。
執筆者
鶴田光彬 クラウドとセキュリティと犬が好き。Microsoft MVP for Security、Microsoft Top Partner Engineer、CISSP、TOEIC L/R 920、IPA システムアーキテクト etc
商標
- 「Microsoft 365 Copilot」「Microsoft 365」「Microsoft Teams」「Microsoft Exchange Online」「Microsoft Purview」「Microsoft SharePoint」「Microsoft OneDrive」は、米国Microsoft Corporationの米国およびその他の国における登録商標または商標です。