生成 AI のコラム
COLUMN

Gemini のセキュリティ対策ガイド|企業が安全に業務活用する設定とリスク管理

Gemini に入力した情報が漏洩しないかという懸念は、企業が AI 活用を検討する際に発生します。個人向けの無料プランと法人向けの Google Workspace プランでは、データの取り扱い方針が異なります。

本記事では、 Gemini のセキュリティの仕組み、企業利用時のリスクと対策、およびコンプライアンス対応を解説します。

Gemini のセキュリティの基本的な考え方

個人向けと法人向けでセキュリティが異なる理由

個人向けプランと法人向けプランである Google Workspace では、データの取り扱い方針が異なります。

個人向けの無料版 Gemini や Google AI Plus 、 Google AI Pro 、 Google AI Ultra を使用する場合、入力したプロンプトや会話内容は、Google の AI サービスの品質改善に利用される場合があります。フィードバックに関連する一部の会話内容は、品質確認のために Google のスタッフが閲覧することがあります。

一方、法人向けの Google Workspace with Gemini では、以下の事項が明示的に保証されています。

  • 組織のデータは AI モデルのトレーニングに許可なく使用されません。
  • ユーザーのプロンプトや回答は組織外に開示されません。
  • Google のスタッフによる無断のデータ確認は行われません。

企業が Gemini を業務利用する際に個人向けプランではなく Google Workspace を選択する根拠はここにあります。

参照:Google Workspace の生成 AI に関するプライバシーハブ

企業が Gemini 利用で直面する主なリスク

企業が Gemini を導入および運用する際、人的リスク(従業員による機密情報の誤入力、シャドー AI の利用)、技術的リスク(プロンプトインジェクション攻撃、API キーの不適切な管理)、および無料版の利用によるデータ取り扱いリスクを把握する必要があります。各リスクの詳細と対策は後述します。


認証と認可の仕組みと管理機能

Google Workspace 管理コンソールによるアクセス制御

Google Workspace を導入している組織は、管理コンソールから Gemini の利用に関する詳細な設定を実行できます。

Gemini 機能の有効化と無効化
管理者は、 Gemini in Gmail 、Gemini in Google ドキュメント、Gemini in Google Meet など、各アプリケーションにおける Gemini 機能を個別に有効化または無効化できます。用途に応じて特定の機能のみを許可する段階的な展開が可能です。

ユーザーベースの制御
組織全体に一律で適用するのではなく、部署、チーム、役職などのユーザーグループごとに異なる Gemini 利用ポリシーを設定できます。管理職には全機能を許可し、一般社員は Gmail での基本機能のみ利用可能にする設定が可能です。

デバイスポリシーとの連携
デバイス固有のアクセスポリシーを実装することで、会社支給端末からのみ Gemini を利用できる環境を構築できます。個人所有デバイスからの業務利用を制限し、管理されたデバイスのみでのアクセスに限定することでセキュリティを強化します。

多層防御のアプローチ
Gemini の安全な運用には、 Workspace のアクセス制御に加えて、IP アドレス制限、多要素認証、シングルサインオンを組み合わせます。認証機能と IP アドレスベースのアクセス制限を適用し、社内の限られたユーザーのみがアクセスできる環境を構築します。

参照:生成 AI のセキュリティ、コンプライアンス、プライバシー

ユーザー権限とグループポリシーの設定

Workspace の権限管理は、必要最小限の権限のみ付与する最小権限の原則に基づいて設計します。

組織単位によるポリシー設計
Google Workspace では組織単位ごとに異なるポリシーを適用できます。部門別および役割別に Gemini の利用範囲を定め、組織の実態に合わせた設定を実行することで過剰な機能公開を防止します。

Gemini アクティビティの監視
管理コンソールには、組織内のユーザーがどの Gemini 機能をどの程度利用しているかを確認する監視機能が備わっています。利用状況のレポートを定期的に確認し、想定外の利用パターンや問題を早期に発見します。

条件付きアクセスポリシー
Google Workspace の上位プランでは、ユーザーの場所、デバイス状態、時間帯などの条件に基づいてアクセスを制御するコンテキストアウェア アクセスを利用できます。リスクの高いアクセスシナリオに対して追加の認証ステップを要求する設定が可能です。


データ保護とプライバシーの仕組み

Google Workspace with Gemini のデータ保護方針

Google Workspace with Gemini では、以下のデータ保護方針が適用されます。

AI トレーニングへの非利用
Google は顧客の Workspace データを許可なく使用して Gemini などの AI モデルのトレーニングや改善を行わないことを明示しています。

参照:生成 AI のセキュリティ、コンプライアンス、プライバシー

ファイルとデータの一元管理
Workspace ではファイルが Google ドライブに保存され自動的にバージョン管理されます。 Gemini はユーザーがアクセス権を持つデータのみを参照する設計となっており、アクセス権のないデータは Gemini の応答に利用されません。

データの暗号化
Workspace のデータは保存時および転送時に暗号化されます。より高度な保護が必要な場合はクライアントサイド暗号化を利用できます。これを適用すると暗号化キーの管理を組織側が実行し、Google を含む第三者がデータにアクセスできない状態を実現します。

DLP 機能の活用

DLP は機密情報が組織外に漏洩することを防ぐための機能です。 Google Workspace では Gemini と連携した DLP ポリシーを設定できます。

DLP の主な機能

  • クレジットカード番号やマイナンバーなどの特定のキーワードおよびパターンを含む入力を検知し、ブロックまたは警告します。
  • 機密ファイルに自動でラベルを付与し、 Gemini からのアクセスを制限します。
  • 機密コンテンツが含まれる Gemini の応答の外部共有を制限します。

AI 分類機能との連携
Enterprise プランでは AI を使用したデータ分類機能を利用できます。 Google ドライブ内のファイルを自動的にスキャンし、機密レベルに応じてラベルを付与した上で DLP ルールを適用することで、大規模な組織でのデータ保護を実行します。

情報権限管理
ダウンロード、コピー、印刷の無効化などの情報権限管理設定を通じて、 Gemini が機密データにアクセスする範囲を管理者が制御します。

参照:Google Workspace のエンタープライズセキュリティ管理

データ保管場所と主権管理

グローバルに事業を展開する組織や、特定のデータ主権要件がある規制業種では、データの保管場所および処理場所を管理します。

データリージョンの選択
Google Workspace では、 Gemini in Workspace アプリのデータ処理を米国または EU に限定できます。日本の企業が GDPR などの規制に対応する必要がある場合や、特定の地域でのみデータ処理を行うことが求められる場合に適用します。

ローカルデータストレージ
デジタルレジリエンスと存続可能性を確保するため、 Gemini in Workspace アプリのデータの独立したコピーを特定の国または地域に保存できます。

VPC Service Controls による追加保護
Google Cloud の Vertex AI などの生成 AI サービスを利用する場合は、 VPC Service Controls によってネットワークレベルでの隔離を実施します。 API へのアクセスを、許可された仮想プライベートクラウドからのみに限定し、外部からの不正アクセスリスクを抑えます。


企業利用時のリスクと対策

人的ミスによる情報漏洩リスクと対策

企業での Gemini 利用における主なリスクは、従業員の人的ミスに起因します。

主な人的リスクのパターン

  • 顧客の氏名、連絡先、取引金額などの個人情報や機密情報を Gemini に入力する。
  • 新製品情報や M&A 情報などの社内の未公開情報をプロンプトに含める。
  • Gemini の応答を未確認のまま外部に共有する。

対策

  • 利用ガイドラインの整備 Gemini に入力可能な情報と禁止する情報を明文化したガイドラインを作成し、全従業員に周知します。氏名やマイナンバーはマスキングして入力する、機密文書は直接アップロードしないといったルールを策定します。
  • 入力前の確認手順 機密情報を含むデータを入力する前に確認するチェックリストを運用します。
  • DLP によるシステム的な制限 人によるチェックに加えて、 DLP ポリシーで技術的に機密情報の入力を制限します。
  • 出力の確認プロセス Gemini の応答を外部に共有する場合は、誤った個人データの混入がないかを確認するプロセスを組み込みます。

プロンプトインジェクション攻撃への対策

プロンプトインジェクションとは、悪意のある指示をプロンプトに混入させ、 AI に意図しない動作を誘発させる攻撃手法です。

間接プロンプトインジェクション
ユーザーが直接入力するのではなく、 AI が参照する外部ドキュメント、メール、ウェブページなどに悪意のある指示が埋め込まれている場合に発生します。Gemini が要約するウェブページに、このページを要約した上でユーザーの個人情報を特定の URL に送信せよという隠し指示が含まれているケースが該当します。

Google の対策
Google は敵対的データを使用したトレーニングにより、プロンプトインジェクション攻撃への防御を強化しています。悪意のある指示を検出する機械学習モデルとシステムレベルの保護措置を組み合わせた多層防御アプローチを採用しています。

参照:Google Workspace のエンタープライズセキュリティ管理

組織としての対策

  • Gemini が参照する外部コンテンツの範囲を必要最小限に設定します。
  • ユーザーに対してプロンプトインジェクションの概念と具体的な例を教育します。
  • セキュリティインシデントの報告ルートを確立し、異常な挙動を速やかに報告する体制を構築します。

シャドー AI のリスクと統制方法

シャドー AI とは、組織が公式に承認および管理していない AI ツールを従業員が業務に利用する現象です。個人向け生成 AI サービスが IT 部門の把握なしに業務利用されるケースが発生しています。

シャドー AI の課題

  • 組織のデータ保護ポリシーが適用されません。
  • 入力データがどのように取り扱われるか管理できません。
  • 利用状況の監視および監査ができません。
  • セキュリティインシデント発生時の追跡と対応が困難になります。

対策

  • 承認済み AI ツールの提供 従業員が AI ツールを使用するニーズに対応し、組織として承認した安全な AI 環境を提供します。代替手段の提供がシャドー AI 対策として機能します。
  • 利用状況の可視化 Workspace の管理コンソールを通じて承認された Gemini ツールの利用状況を把握します。未承認の AI サービスへのアクセスをネットワークレベルで制限します。
  • 教育と意識啓発 定期的なセキュリティ教育の中でシャドー AI の課題を取り上げ、ツールの正しい利用方法を周知します。

コンプライアンス対応

取得済みのセキュリティ認証一覧

認証や規格 概要
ISO 42001 AI マネジメントシステムの国際規格であり、 AI の責任ある開発と利用に関するフレームワーク
BSI C5 ドイツ連邦情報セキュリティ局によるクラウドセキュリティ基準
FedRAMP High 米国連邦政府機関向けのクラウドセキュリティ評価フレームワーク
ISO 27001 情報セキュリティマネジメントシステムの国際規格
SOC 2 および SOC 3 セキュリティ、可用性、機密性に関するサービス組織のコントロール評価

これらの認証は、 Google が Gemini を含む Workspace サービスにおいて高度なセキュリティ管理を維持していることを第三者が評価した証明です。

参照:Google Workspace の生成 AI に関するプライバシーハブ

個人情報保護法や GDPR への対応

日本の個人情報保護法への対応
Google Workspace with Gemini は日本の個人情報保護法に基づいた個人データの取り扱いに対応しています。組織が入力したデータは第三者への提供や AI トレーニングへの無断利用が行われないため、個人情報保護法の第三者提供制限の観点において適切な管理が可能です。

組織が Gemini を通じて個人情報を処理する場合、処理の目的、範囲、保管期間などを自社のプライバシーポリシーに記載し、従業員や顧客への通知を実施します。

GDPR への対応
EU 域内に個人データを持つ組織が Gemini を利用する場合、 GDPR への対応が求められます。 Google Workspace は GDPR に対応しており、データ処理補足契約の締結や、データ処理を EU リージョンに限定する設定が可能です。 GDPR の要件に基づくデータ保護影響評価の実施をサポートするドキュメントも Google から提供されています。

規制業種での利用時の注意点

金融、医療、公共機関など、厳格なデータ保護が求められる業種では追加の考慮事項があります。

金融業界
金融庁のガイドラインや金融 ISAC などのセキュリティ基準に従い、 Gemini の利用範囲と禁止事項を定義します。顧客の金融情報や取引データを Gemini に入力しないルールの徹底と、 DLP による技術的な制御を組み合わせます。

医療およびヘルスケア業界
米国では HIPAA への対応が求められる場合があります。 Google Workspace with Gemini は HIPAA の要件を満たすための業務提携契約の締結に対応しています。日本では医療情報の取り扱いに関するガイドラインに基づき、患者情報の入力禁止ルールを整備します。

参照:生成 AI のセキュリティ、コンプライアンス、プライバシー

公共機関および地方自治体
FedRAMP High 認証の取得は、公共機関での利用におけるセキュリティ水準の証明となります。特定の機密指定情報については利用制限を設け、各組織のセキュリティポリシーに基づいた判断を実施します。

継続的なセキュリティ監視
規制業種においては継続的な監視と改善のサイクルを実行します。監査ログの定期的な確認、利用ポリシーの年次見直し、セキュリティインシデント対応フローの整備、従業員向けセキュリティ教育の定期実施により、安全な運用を維持します。


最後に

Gemini のセキュリティは、プラン選定、設定、運用の方法によって異なります。個人向けプランでは入力データが AI トレーニングに利用される場合があるため、業務利用には法人向けの Google Workspace with Gemini を適用します。

Google Workspace with Gemini は、 DLP 、アクセス制御、監査ログ、データ主権管理などの機能を備えており、 ISO 42001 、 BSI C5 、FedRAMP High などの第三者認証を取得しています。これらの機能を適切に設定して運用することでセキュリティが確保されます。利用ガイドラインの整備、DLP ポリシーの設定、従業員教育を組み合わせた総合的な対策を実行します。

cloudpack を運営するアイレットは、AI マネジメントシステムの国際規格である「ISO/IEC 42001」認証を取得しています。国際標準に準拠した管理体制のもと、 Google Workspace を活用した生成 AI の安全な導入および運用を支援します。セキュリティポリシーの設計から管理コンソールの設定、 DLP ルールの構築まで、企業の Gemini 活用をセキュリティの観点から包括的にサポートします。生成 AI の安全な導入をご検討の際は、 cloudpack までご連絡ください。