NDAはAI時代にどう変わるか|「情報の封じ込め」から「ガバナンスの共有」へ
企業間の取引において、秘密保持契約(NDA)は最も基本的な契約の一つです。
しかし、生成AIの急速な普及により、このNDAの前提が静かに、しかし決定的に崩れ始めています。
秘密情報は「AIに入力してはいけない」という建前と、「実務ではすでに使われている」という現実。
このギャップを前提に、NDAは今後どのように進化していくのでしょうか。本記事では、日本の実務の現状と、これから目指すべき「フェーズ3」の運用モデルを提示します。
フェーズ1|AI利用を想定しない「従来型」の限界
現在の日本の実務で主流となっているNDAの多くは、AIの存在を前提としていません。
- 秘密情報の第三者開示は原則禁止
- 目的外利用も厳格に禁止
- 例外は弁護士・会計士などの専門家に限定
この構造下では、生成AIへの入力は形式的に「第三者への開示」に該当し、本来は許されない行為となります。
もはやAIの利用の流れを止めることはできません。しかし、従来型のNDAが生成AIの存在を前提としていないため、現在では、「シャドーAI」などを通じて、取引先の秘密情報が大量にAIに流れていると推察します。
⇒⇒関連記事:シャドーAI対策は急務|社内ルール未整備が招く情報漏洩リスク
ここで注意すべきは、「クラウドストレージへの保管」と「AIによる処理」は質が異なるという点です。
※保管と処理の決定的違い
従来のクラウド保管は、単なる「情報の置き場所の移動」であり、受領側の管理下にあります。しかし生成AIへの入力は、AIモデルという「外部の論理エンジン」に情報を読み込ませ、処理(要約・分析等)させる行為です。たとえ学習に利用されない設定であっても、この動的な処理は、従来のNDAが想定する「保管」や「内部利用」の範疇を超えた「開示」や「目的外利用」とみなされるリスクを孕んでいます。
フェーズ2|「条件付き許容」と信頼のギャップ
現実との乖離を埋めるため、現在広まりつつあるのが「条件付き」の例外条項です。
- 学習利用を行わない設定(オプトアウト)であること
- 一定のセキュリティ水準(API利用等)を満たすこと
- 入力する情報を必要最小限に留めること
この段階で、AIは「禁止すべきもの」から「条件付きで利用可能なツール」へと格上げされます。このような条件付き許容は、形式的には「第三者提供」に該当し得る行為を、契約によって管理された処理(いわゆる委託に近い状態)として整理しようとする試みともいえます。
しかし、ここには相手方の利用するAIとその「設定を信じるしかない」という実効性の限界があります。
開示者側からは、受領者に渡した秘密情報を含むデータがどう処理されているか(ソフトウェアのAPI連携先はどのAIか、サーバーはどの国にあるのか、再委託先はどこか)を完全に検証する手段がありません。契約書上の文言と、技術的な不透明性の間に生じる「信頼のギャップ」が、新たな法務リスクとなっています。
フェーズ3|AI環境の部分開示と「ホワイトリスト」運用
フェーズ2の限界を踏まえた次のステップとして提案したいのは、AI利用環境の部分開示と、それを前提とした「相互許容」という発想です。NDAを「閉じる契約」から「コントロールを共有する契約」へとアップデートします。
具体的な運用:ホワイトリスト方式
NDA本体で一律に禁止・許可を決めるのではなく、「別紙(アネックス)」を活用します。
- 容認リストの作成: 自社が安全性を確認したAIサービスとプラン(例:ChatGPT Enterprise、Azure OpenAI等)を別紙に列挙。つまり、相手に利用を認めるものだけを、ひな形にあらかじめリスト化しておく。
- 設定の指定: 「学習オフ」「データ保持期間」などの必須設定を明記。
- 交渉によるアップデート: 相手方がリスト外のAIを使いたい場合、その安全性を疎明(ホワイトペーパーの提出等)してもらい、合意の上でリストに加える。
この構造では、交渉の焦点は「AI利用を禁止するか」ではなく、「どのインフラなら相互に信頼できるか」に移ります。
なぜこの方向に進むのか
- シャドーAIの防止: 厳しすぎる禁止は、現場の隠れたAI利用を招き、かえって管理不能なリスク(漏洩)を生みます。
- 競争力の確保: AI活用はビジネスのスピードとクオリティに直結します。「安全な使い方の設計」を提示できる企業こそが、良質なパートナーシップを築けます。
- ガバナンスの可視化: 相手方が「どのAIをどう使っているか」を開示させることは、相手方の情報管理リテラシーを測る強力な指標となります。自社の従業員が業務に利用するAIを明確に把握している企業が、安心できるビジネスパートナーとして選ばれやすくなります。
実務への示唆|いま弁護士・法務がすべきこと
現時点で、多くの企業はまだフェーズ1か2の段階にあります。しかし、先行する企業はすでに「AIガバナンス」を契約のテーブルに乗せ始めています。「AIは危険だからダメ」「NDA違反になるからダメ」で思考停止するのではなく、AI利用と秘密保持の両立を目指すのが実務家の役割だと、私は考えています。
- 自社のAI利用環境を棚卸しし、標準的な「安全設定」を定義する。
- NDAに、AI利用を前提とした「別紙方式」を組み込む準備をする。
これからのNDAは、単に「秘密を守るための壁」ではありません。「情報を安全に循環させ、価値を最大化するための設計図」へと進化していくのです。
まとめ
生成AIの普及により、NDAの前提は大きく変わりつつあります。
- フェーズ1:AIを想定しない
- フェーズ2:条件付き許容
- フェーズ3:ガバナンス共有
この流れは、契約実務そのものの変化です。
AIを前提としないNDAは、もはや現実の取引を正しく規律できなくなりつつあります。
NDAは、「自社の秘密を守るための契約」から「企業間の情報の共有方法を設計する契約」へとアップデートさせていく必要があるのではないでしょうか。
NDAをこれからのAI時代に対応させたい方へ
現在のNDAが、生成AIの利用を前提とした実務に対応できているか、不安を感じている企業も少なくありません。
- AI利用をどこまで許容すべきか
- 条件付き例外をどう設計するか
- 自社の利用環境に合わせてどう調整するか
これらは、個別の事情に応じた検討が必要です。
もし、本記事に共感いただいて、この弁護士と一緒に仕事してみたいなと思った方がいらっしゃれば、お気軽にお問い合わせください。

