冒頭結論

結論から3行でお伝えします。

  1. 企業でAIを使う際のセキュリティは、7つの原則に集約できます
  2. 法人プラン+社内ポリシー+インシデント対応の3本柱で対策します
  3. 非エンジニアが理解すべきポイントのみを整理します

7つの原則

原則1: 法人プランを使う

個人アカウントは入力データが学習に使われる可能性があります。企業利用は必ずTeam/Enterpriseプラン。

原則2: 機密情報は伏字化

顧客名・金額・契約内容等は伏字化(〇〇社/金額を丸める)してからAIに投入。

原則3: 最終判断は人間

AIはハルシネーション(架空の情報生成)を起こします。重要判断は人間が最終確認。

原則4: アクセスログを保存

誰が・いつ・何を入力したかをログで追跡可能にする。監査対応に必須。

原則5: 社内ポリシーの策定

「どのAIツールをOKにするか」「何を投入してはいけないか」を明文化。

原則6: 定期的な教育

全社員に3〜6ヶ月ごとのAIセキュリティ研修を実施。

原則7: インシデント対応手順

情報漏洩が起きた時の報告・封じ込め・復旧手順を事前に定義。


H2-1|法人プランの選び方

プラン月額/人主な機能
ChatGPT Team$25〜学習防止・共有ワークスペース
ChatGPT Enterprise応相談($60〜)SSO・監査ログ・SLA
Claude Team$30〜学習防止・プロジェクト機能
Gemini for Workspace$30〜Google Workspace統合

選定基準

  • 社員数10名以下:ChatGPT Team / Claude Team
  • 大企業(SSO必須):ChatGPT Enterprise
  • Google環境中心:Gemini for Workspace

H2-2|社内ポリシーの骨子

テンプレート

AIツール利用ガイドライン

1. 利用可能ツール
 - ChatGPT Enterprise(推奨)
 - Claude Team
 - 上記以外は情シスに要申請

2. 入力してはいけない情報
 - 顧客個人情報・機密契約情報
 - 財務情報・人事評価・給与情報
 - 開発中のプロダクト情報

3. 入力してもよい情報
 - 公開済みの業務情報
 - 伏字化された情報
 - 一般的な業務課題

4. トラブル時の連絡先
 - 情シス:〇〇
 - セキュリティ部門:〇〇

H2-3|インシデント対応手順

Step 1: 検知

不適切な情報入力が判明した場合、情シスに即報告

Step 2: 封じ込め

  • 該当アカウントの利用停止
  • AIベンダーにデータ削除依頼(法人プランは削除対応あり)

Step 3: 影響評価

  • 流出可能性のある情報範囲の特定
  • 関係者への通知必要性判断

Step 4: 再発防止

  • 原因分析
  • 教育の強化
  • ポリシー更新

H2-4|職種別のリスクと対策

職種主リスク推奨対策
営業顧客情報の投入顧客名を伏字化
人事候補者の個人情報法人プラン必須
経理財務データ数字を丸める/オンプレAI
法務契約条項法人プラン+ログ
開発ソースコードEnterprise/オンプレ

H2-5|2026年の新しい脅威

プロンプトインジェクション

悪意ある第三者がAIに偽の指示を混入させる攻撃。Webコンテンツやメール経由で発生。

ディープフェイク音声

上司・取引先の音声を偽装して送金指示等を行う詐欺。

AIエージェントの暴走

広い権限を持つエージェントが意図しない操作を行うリスク。権限最小化が原則。


H2-6|オンプレミスAIの選択肢

社内サーバーで動くAI

  • Llama 3(Meta)
  • Mistral
  • Azure OpenAI Service
  • AWS Bedrock

メリット・デメリット

メリット:機密情報を外部に出さない/デメリット:導入コスト・保守負担。大企業向けの選択肢。


よくある失敗/注意点

失敗1:個人アカウントで業務利用

これが最も多い情報漏洩原因。法人プランを必ず契約。

失敗2:ポリシーが形骸化

作ったまま教育しないと守られません。四半期に1回の研修必須。

失敗3:インシデント隠蔽

早期報告・対応が重要。報告者を責めない文化作り。


Q&A

Q1. 無料版ChatGPTを社内で使うのは禁止すべきですか?

機密情報を扱う企業は原則禁止。社員が業務で使う場合は法人プランへ移行。

Q2. 社内ポリシー違反の処分は?

就業規則に準拠。悪意なき違反は教育、悪意ある場合は厳正な処分が一般的。

Q3. 中小企業でもポリシーが必要ですか?

必要です。A4×1枚の簡易版で十分。重要情報の扱いだけでも明文化を。

Q4. AIベンダーの選定でチェックすべきは?

SOC 2認証・ISO 27001・日本のプライバシーマーク等を確認。

Q5. セキュリティ担当者はどのスキルを磨くべき?

AI特有のリスク(プロンプトインジェクション等)+既存のセキュリティ知識の両輪で。


まとめ(3行)

  • 7原則(法人プラン・伏字化・最終人間判断・ログ・ポリシー・教育・インシデント対応)を遵守
  • ChatGPT Enterprise等の法人プラン+社内ポリシー策定が最低ライン
  • 2026年の新脅威(インジェクション・ディープフェイク・エージェント暴走)に注意

法務のAI活用は法務担当のAI契約書チェック実践ガイド、ツール連携はAIと業務ツールを連携させる5パターンをどうぞ。