「社員がChatGPTに顧客情報を貼り付けていたかもしれない」——そう気づいた瞬間、何をすべきか。禁止か、容認か、それともルール整備か。判断に迷う責任者のために、リスクの構造と対策の全体像を冷静に整理します。

1. なぜ「社内データをAIに入れる」のがリスクなのか

生成AIへの社内データ入力が問題視される理由は、大きく3つあります。

① 学習データ化の懸念

多くの生成AIサービスは、無料・一般ユーザー向けのプランにおいて、入力したテキストをモデルの改善に利用することがあります。「自社の営業トークを入力したら、競合他社のユーザーへの回答に影響を与えるのでは」という懸念は、あながち的外れではありません。

② 第三者への意図せぬ流出

AIサービスのサーバーはインターネット上にあります。入力データはそのサービス事業者のインフラに一時的に保存されます。サービス側のセキュリティインシデントや設定ミスが起きた場合、第三者が閲覧できる状態になるリスクはゼロではありません。

③ 契約・法令違反のリスク

顧客との守秘義務契約(NDA)に「第三者のシステムへの入力を禁ずる」条項が含まれている場合、AIへの入力は契約違反になり得ます。また個人情報保護法の観点から、顧客の氏名・連絡先・購買履歴などを外部サービスに入力する行為は、個人情報の「第三者提供」または「委託」に該当するとみなされる可能性があります。プライバシーマーク(Pマーク)やISMS(情報セキュリティマネジメントシステム)を取得している企業であれば、規程との整合性確認が必須です。

2. ChatGPTにデータが「学習されない」設定とそれでも残るリスク

API版を使う場合

OpenAIが提供するAPI(アプリケーション・プログラミング・インターフェース=開発者向けの接続方式)経由でアクセスする場合、デフォルトでは入力データはモデルの学習に使用されません。ただしOpenAIのサーバー上に30日間ログが保存される仕様があります(2024年時点)。ゼロデータリテンション(ZDR)オプションを契約することで、ログの保存自体を止めることができますが、Enterprise契約が必要です。

ChatGPT(ブラウザ・アプリ版)のオプトアウト設定

オプトアウトとは、サービス側の標準設定から外れ、データ利用を拒否する選択のことです。ChatGPTの場合、「設定 → データコントロール → モデルのトレーニングにデータを使用する」をオフにすることで、学習への利用を止めることができます。

しかし、この設定をしても以下のリスクは残ります。

  • 会話履歴はOpenAIのサーバーに保存される
  • OpenAIの従業員が品質改善目的でレビューする場合がある(利用規約に記載)
  • アカウント削除後もデータが即時消去されるわけではない

ChatGPT Enterprise / Teams プラン

EnterpriseプランおよびTeamsプランでは、入力データが学習に使用されないことが契約上保証されています。ただし、社員が無断で個人アカウント(無料・Plusプラン)を使用している場合は、このカバーの外になります。

主要プランのデータ取り扱い比較

プラン学習利用ログ保存推奨用途
ChatGPT 無料版あり(デフォルト)あり個人学習のみ
ChatGPT Plusオプトアウト可あり個人業務(注意付き)
ChatGPT Teamsなしあり(管理者管理)小規模チーム
ChatGPT Enterpriseなしあり(社内管理)法人標準
OpenAI API(標準)なしあり(30日)開発・検証
OpenAI API(ZDR)なしなし高機密用途

3. 入力していいデータ・ダメなデータの仕分け

入力禁止とすべきデータ

  • 顧客の氏名・住所・電話番号・メールアドレスなど個人情報
  • 取引先の会社名と紐づいた売上・取引条件などの財務情報
  • NDA(守秘義務契約)の対象となる情報
  • 採用候補者・従業員の個人情報
  • 未発表の製品・サービス情報、M&A情報などの社外秘事項

条件付きで入力可とするデータ

  • 固有名詞を伏せた社内文書のドラフト
  • 一般的なビジネス文書のテンプレート・雛形
  • 公開情報をもとにした調査・分析依頼
  • 固有名詞を含まない業務プロセスの説明

原則として入力可のデータ

  • 公開情報(ニュース・業界レポートなど)
  • 自社公開済みのWebサイト・プレスリリースの内容
  • 一般的な文章の言い換え・校正依頼(固有情報を含まないもの)

判断の基準は「その情報が外部に出たとき、誰かに不利益が生じるか」です。不利益が生じるなら入力禁止、生じないなら許可、という軸で整理すると社員も理解しやすくなります。

4. 「禁止」が最悪の選択である理由

「問題が起きる前に禁止してしまおう」という判断は、一見安全に見えます。しかし現場では、禁止が別のリスクを生み出します。

シャドーIT化

シャドーITとは、会社が把握・管理していないツールを社員が個人的に使い続ける状態です。禁止令を出しても、社員は業務効率を求めて個人のスマートフォンや私用PCでAIを使い続けます。会社の目が届かないため、情報漏洩リスクがむしろ高くなります。

学習機会の損失

AIを業務に組み込む能力は、今後の生産性を左右します。禁止した期間は、社員のAIスキルが止まったままになります。競合他社が社員教育を進めるなかで、差はじわじわと広がります。

現場の不満と信頼の毀損

「理由がわからない禁止」は、現場のモチベーションを下げます。「経営が時代遅れ」という認識が広がると、優秀な人材の離職にもつながりかねません。

禁止という選択は、リスクをゼロにするのではなく、リスクを見えないところへ追いやるだけです。管理できる状態を作ることが、唯一の解決策です。

5. 安全に使うための3層防御

AIを安全に業務利用するための対策は、3つの層で考えます。どれか一つだけでは不十分です。3層をセットで設計することが重要です。

  • 第1層:ツール選定——学習除外設定のある法人向けプランや、社内環境で完結するツールを選ぶ。これが最初のフィルターです。
  • 第2層:ルール整備——「何を入力してよいか・ダメか」を明文化した社内規程を作る。ルールがなければ、社員は判断できません。
  • 第3層:社員教育——ルールを配布するだけでは意味がありません。「なぜそのルールがあるのか」を理解した社員だけが、ルールを守り、想定外の状況でも正しく判断できます。

この3層は順番に整備します。ツールを先に決め、次にルール、最後に教育の順です。教育だけ先行させても、ツールやルールがなければ社員は動けません。

6. ツール選定のポイント

学習除外オプション

契約上、入力データが学習に使われないことが明記されているか。口頭や「予定」ではなく、利用規約・DPA(データ処理契約)に明記されていることを確認します。

VPC内構成の有無

VPC(仮想プライベートクラウド)とは、インターネットから切り離した専用のクラウド環境のことです。自社のVPC内でAIモデルを動かす構成にすると、外部サーバーにデータが送信されません。高機密のデータを扱う業種(医療・金融・法律など)では特に有効です。

日本リージョン

データが日本国内のサーバーに保存される設定があるかを確認します。欧州のGDPRや日本の個人情報保護法の観点から、データの越境移転が問題になる場合があります。

オンプレミス vs クラウド

オンプレミスとは、自社のサーバー上にシステムを設置・運用する方式です。クラウドと比べてコストは高くなりますが、データが一切外部に出ないため、最高水準のセキュリティが必要な場合に選ばれます。

主要ツールの比較

ツール法人向け学習除外日本リージョンVPC対応主な用途
ChatGPT Enterpriseあり一部対応なし汎用業務
Microsoft Copilot(M365)ありあり条件付きOffice連携
Google Gemini for Workspaceありあり条件付きGoogle連携
Azure OpenAI Serviceありありあり開発・高機密
Claude for Enterpriseあり一部対応検討中文書・分析

※上記は2026年4月時点の情報です。各サービスの利用規約・DPAを必ずご確認ください。

7. ルールに書くべき5項目

① 入力禁止データの定義

「個人情報」「社外秘情報」「NDA対象情報」など、入力を禁止するデータの種類を具体的に列挙します。「機密情報は入力禁止」という抽象的な表現だけでは、現場の判断が分かれます。

② 承認プロセス

新しいAIツールを業務で使いたい場合の申請・承認フローを定めます。「誰でも自由に使える」状態はシャドーITの温床です。部門長承認か、情報システム部門の事前確認かを明確にします。

③ ログ管理

誰がいつどのツールを使ったかのログ(記録)を取得・保存する方法を定めます。インシデントが発生した際の原因調査に不可欠です。ChatGPT EnterpriseやMicrosoft Copilotは管理者向けのログ機能を持っています。

④ インシデント対応

情報漏洩が疑われる事態が発生した際の報告先・初動手順を定めます。「気づいたら情報システム担当へ即日報告」「使用したAIサービス・入力内容・日時を記録して提出」など、具体的に記述します。

⑤ 違反時の処分

ルール違反に対する懲戒処分の方針を就業規則と整合する形で定めます。処分規定がなければルールに実効性が生まれません。ただし、委縮を生まないよう「故意・過失・悪意の有無」を考慮する旨を添えると現場の納得感が高まります。

8. プライバシーマーク・ISMS取得企業がAI導入で確認すべきこと

個人情報保護方針との整合

外部の生成AIサービスに個人情報を入力する場合、それが「個人情報の委託」に該当するかを確認します。委託に該当する場合、委託先の安全管理措置を確認・評価する義務が生じます。プライバシーマーク規格(JIS Q 15001)では、委託先の監督義務が明確に求められています。

委託先管理

AIサービス事業者を「個人情報の取り扱いを委託する先」として台帳に記載し、定期的に安全管理措置を評価する体制を整えます。OpenAI・Microsoft・Googleなどの事業者が公開しているDPA(データ処理契約)・セキュリティホワイトペーパーを取得・保存しておくことで、審査時の対応がスムーズになります。

監査対応

次回の更新審査・サーベイランス審査の前に、AI利用に関するリスクアセスメントを実施し、文書化しておくことを推奨します。「AI利用規程の制定」「委託先管理台帳への記載」「社員教育の実施記録」の3点があれば、審査官への説明がしやすくなります。

ISMS(情報セキュリティマネジメントシステム)の観点

ISMSでは、新たなシステム・ツールの導入時に情報セキュリティリスクアセスメントを行うことが求められます。生成AI導入は新たなリスク要因の追加として扱い、リスク評価シートを更新します。「リスクを認識・評価したうえで許可している」という記録が、インシデント発生時の対応と審査の両面で重要です。

9. 社員教育で必須の3テーマ

テーマ① データの分類

「自分が扱う情報がどの分類に属するか」を判断できるようにします。個人情報・社外秘・一般情報の3段階の定義と具体例をセットで教えます。「顧客名を含む議事録は入力禁止」「顧客名を伏せた議事録は条件付き可」など、実務に即した例を使うと理解が早まります。

テーマ② プロンプトの書き方(個人情報を含まない)

固有名詞や個人情報を含まずに必要な出力を得る「情報の一般化・匿名化」の技術を習得させます。「顧客Aが〇〇と言った」ではなく「ある顧客から〇〇という指摘があった」と言い換えるだけで、多くのリスクを回避できます。

テーマ③ ハルシネーションへの注意

ハルシネーション(幻覚)とは、AIが事実に基づかない情報をもっともらしく生成する現象のことです。「AIが言ったから正しい」という誤解を持ったまま業務に使うと、誤情報が社内・社外に流出します。「AIの出力は必ず人間が確認する」というプロセスを習慣にする意識付けが必要です。

10. よくある質問

Q1. ChatGPT無料版とPlus版・API版では何が違うのですか。

無料版とPlus版は、ブラウザ・アプリ経由でOpenAIのサーバーに接続します。デフォルトでは入力データが学習に使用される設定になっています(オプトアウト可)。API版は開発者向けの接続方式で、デフォルトでは学習に使用されません。法人での業務利用であれば、ChatGPT Teams以上のプランか、API版の利用が基本となります。

Q2. Microsoft Copilot(M365 Copilot)は安全ですか。

Microsoft 365のEnterpriseライセンスに含まれるCopilotは、入力データがMicrosoftのAIモデルの学習に使用されないことが契約上保証されています。データは組織のMicrosoft 365テナント内に留まる設計です。ただし、BingのCopilot(ブラウザ版)は別のサービスであり、同様の保証はありません。両者を混同しないよう社員への周知が必要です。

Q3. Claude(Anthropic)はどうですか。

Anthropicが提供するClaude Proは個人向けプランです。法人向けには「Claude for Enterprise」があり、入力データの学習利用なし・データ保持ゼロの設定が利用可能です。AnthropicはSOC 2 Type IIの認証を取得しており、セキュリティ水準は比較的高いと評価されています。ただし日本リージョンの対応状況は2026年4月時点で限定的であるため、事前に確認が必要です。

Q4. 無料版を社員が個人的に使っている場合、会社のリスクになりますか。

法的責任の観点では、個人が個人のアカウントで行った行為は、原則として会社の直接責任ではありません。しかし、業務上の情報を扱っている場合は話が変わります。顧客情報・社外秘情報を入力した場合、情報漏洩の実害が生じれば、会社として顧客・取引先への説明義務が発生します。「会社として禁止していた」という証拠があることが、会社の責任軽減につながります。社員への明示的な通知と規程の整備が、リスク管理の基本です。

Q5. AI使用のログは取れますか。

ChatGPT Enterprise・Microsoft Copilot・Google Gemini for Workspaceなど法人向けプランでは、管理者向けダッシュボードからユーザーの利用状況(アクセス日時・使用頻度など)を確認できます。ただし、具体的にどのようなプロンプトを入力したかを会社側が閲覧できるかは、プランや設定によって異なります。完全なログ管理を求める場合は、APIを経由して自社システムでログを取得する構成の検討が必要です。

Q6. Google Gemini for Workspaceは安全ですか。

法人向けのGoogle Workspace(EnterpriseまたはBusiness Starter以上)に含まれるGeminiは、Googleがデータをモデルの学習に使用しないことを明記しています。データは組織のGoogle Workspaceテナント内で処理されます。個人のGoogleアカウントで使用するGemini(gemini.google.com)は別扱いであり、同様の保証がないため、業務利用に際しては注意が必要です。

Q7. プライバシーマーク取得企業は、AI導入前に何か手続きが必要ですか。

取得審査機関への事前届け出は不要ですが、自社の個人情報保護マネジメントシステムの文書(リスクアセスメント・委託先管理台帳・教育記録)を更新する必要があります。次回審査の際に「AI利用をどう管理しているか」が確認される可能性が高いため、早めに体制を整えることを推奨します。

Q8. 社労士や弁護士に相談すべきですか。

AI利用規程は、就業規則との整合・個人情報保護法への対応・NDA条項の解釈を含みます。特に「違反時の処分」は就業規則の変更手続きと密接に関わるため、社労士への相談が有効です。個人情報の第三者提供・委託の解釈、NDAとの整合性については弁護士の確認が安心です。コスト的に難しい場合は、業界団体や商工会議所が提供する専門家相談窓口を活用する方法もあります。

Q9. 「AIに社内情報を入力した」とインシデントが発生した場合、最初にやることは何ですか。

まず「何を・いつ・どのAIサービスに・どのアカウント(個人か法人か)で入力したか」を確認します。次に、入力した情報の種類(個人情報か・社外秘か・NDA対象か)を特定します。個人情報が含まれていた場合は、個人情報保護委員会への報告義務が生じる可能性があります(個人情報保護法第26条)。社内対応と並行して、法務・顧問弁護士への連絡を速やかに行ってください。

Q10. 現時点でAI利用ルールがない場合、最低限まず何をすればよいですか。

以下の3点を優先して整備します。

  1. 入力禁止データの一覧を1枚紙でまとめ、全社員に配布する
  2. 使用を承認するAIツールを会社として指定し、未承認ツールの業務利用禁止を明示する
  3. 疑問・インシデントの相談窓口(情報システム担当または責任者)を社員に周知する

完全な規程の整備は時間がかかります。まず「何がダメか・どこに相談するか」の2点を明確にするだけで、リスクは大幅に下がります。

Q11. AIに入力したデータは、他のユーザーへの回答に出てきますか。

正確には「他ユーザーへの回答にそのまま出てくる」という仕組みではありません。ただし、入力データが学習に使われた場合、統計的なパターンとしてモデルに反映され、似た文脈の質問に対して影響を与える可能性が理論上はあります。「学習除外」の設定または契約が有効かどうかを確認することが、この懸念を防ぐための直接的な対策です。