クライアントワークでAIを使うのは「許可とルール」があれば原則OKになり得る。事故るのは“無断入力”と“契約の穴”
「クライアントワークでChatGPTを使ったら、情報漏えいで訴えられる?」
「NDA(秘密保持契約)を結んだけど、どこまでAIに入力していいのか分からない…」
結論から言うと、クライアントワークでの生成AI利用は「事前の許可」と「入力ルール」さえ整っていれば、補助ツールとして使えるケースは多いです。
ただし、こっそり無断で使ったり、契約書を読まずに機密情報を入力したりすると、一発で信用を失い、最悪の場合は損害賠償請求などに発展するリスクもあります。
怖がる必要はありません。「何を入力してはいけないか」と「事前に確認すべきこと」を押さえれば、トラブルの大半は防げます。この記事では、受託初心者が実務で使える形で、守秘義務・契約・情報漏えい対策を“手順書”としてまとめます。
※本記事は一般的な情報です。個別案件の契約判断は、契約書・NDA・クライアント指示を優先し、不安があれば専門家や公的窓口へ相談してください。
なぜ「生成AI 守秘義務 仕事」で揉めるのか:事故の典型パターン
生成AIのトラブルは、技術というより運用ミスで起きがちです。よくあるパターンは次の通り。
- パターン1:NDAで「第三者提供禁止」なのに、クラウドAIに貼り付けた
本人は「時短のため」と思っていても、クライアントから見ると“外部に提供した”扱いになり得ます。 - パターン2:個人情報・顧客情報を匿名化せずに入力した
依頼文のスクショ、顧客リスト、問い合わせメール本文をそのまま入れるのが典型です。 - パターン3:会社員副業で、勤務先の情報を混ぜてしまう
社内資料の要約、社内のコードや設計、社内ルールをAIに相談→副業だけでなく本業側の規程違反にもつながり得ます。 - パターン4:契約にAI利用ルールがないまま納品し、後から揉める
「AIを使うなら事前申告が必要だった」「ログを消してほしい」「再委託が不可だった」など、条件が後出しで増えます。
事故を防ぐ鍵は、AI利用の合意(確認)と入力ルールと契約の整備です。
守秘義務の基本:AIに入力する=「外部に出す」と同じ発想で設計する
守秘義務(NDA含む)で重要なのは、「あなたが悪意を持って漏らしたか」よりも、契約上、秘密情報を第三者に提供していないかです。クラウド型AIを使う場合、入力内容はサービス提供者の環境へ送られるため、クライアントからは“外部に出した”と見られやすい。だからこそ、先にルール化します。
まず押さえる用語(ざっくりでOK)
- 秘密情報(機密情報):契約で秘密として扱う情報(顧客情報、売上、企画、未公開資料、仕様、ソースコード等)
- NDA:秘密情報の取り扱いルール(目的外利用禁止、第三者提供禁止、返却・削除、損害賠償等)
- 再委託(再委任):業務の一部を第三者に任せること(クラウドAIの利用がここに該当すると解釈される可能性がある)
まず作る:入力禁止情報リスト(受託初心者の安全運用は“ダメ寄り”が正解)
最初に「入力してはいけない情報」を決めると、案件ごとに迷いません。受託初心者は、次を原則入力禁止にするのが安全です。
原則:入力禁止にしておくべき情報
- 氏名、住所、電話番号、メール、IDなどの個人情報
- 顧客リスト、購買履歴、問い合わせ履歴などの顧客データ
- 未公開の企画・キャンペーン・新商品・価格・提携などの未公表情報
- ログイン情報、APIキー、パスワード、社内URLなどの認証情報
- ソースコード、設計書、アルゴリズム、社内手順書などの技術・ノウハウ
- 契約書、見積書、請求書、社内チャットなどの内部文書
入力してもよい可能性が高い情報(ただしクライアント方針次第)
- すでに一般公開されている情報(公式サイトの公開ページなど)
- あなたが作成した汎用テンプレや一般論(固有情報が混ざっていないもの)
- 匿名化・一般化した要件(「飲食店のLP」「30代女性向け」など)
ポイントは、公開情報でも「まとめ方」自体がクライアントの秘密になり得ること。迷ったら「入力しない」「自分で要件メモに落としてから入力」が安全です。
クライアントに確認すべき「AI利用可否」:質問テンプレ(これだけで事故率が下がる)
AIを使っていいかは、空気を読むより質問して合意を取るのが強いです。最初のヒアリング(または発注前)に、次を入れてください。
- AI利用の可否:生成AIを補助的に使用してよいか(可/不可/条件付き)
- 入力してよい範囲:公開情報のみ可?匿名化すれば可?一切不可?
- 使用ツールの指定:指定ツールのみ可?法人向けプランなど条件があるか
- ログ・学習(トレーニング)利用の扱い:入力内容を“モデル改善に使わせない設定”が必要か
- 保存・削除:会話ログを保存してよいか/納品後に削除するか(証跡として残す必要とのバランス)
- 成果物の扱い:AI使用の申告が必要か(社内規程・ガイドラインがあるか)
- 検収基準:事実確認・校正・最終判断は誰が行うか(あなた/クライアント)
合意は必ず文章で残す(チャットでもOK)のが重要です。口頭だけは危険です。
【重要】オプトアウト(学習拒否)設定:クライアントの安心材料になる“技術的対策”
クライアントが一番怖いのは「入力した情報が学習に使われて、他人の回答に混ざるのでは?」という不安です。そこで使える説明材料がオプトアウト(学習利用をオフにする設定)です。
ChatGPT(コンシューマー利用)の代表例:学習利用をオフにする
ChatGPTには、設定(データコントロール)で「モデル改善のための利用」をオフにできる項目があります。これをオフにすることで、入力内容がモデル改善に使われるリスクを下げられます。
この設定をしている、とクライアントに伝えられるだけで安心感は上がります。
ただし、設定がある=何でも入力して良い、ではありません。NDAや社内規程でクラウド入力自体が禁止なら、設定の有無に関係なくNGです。
API利用・Business系の考え方:デフォルトで学習に使われない(ただし運用は別)
API経由の利用やビジネス向け提供では、入力したデータがモデル改善に使われない前提で設計・案内されていることがあります。
ただし、ここでも大切なのは「学習に使われない」=「秘密情報を入れて良い」ではないこと。クライアントの契約・方針で許可を取り、入力を最小化するのが基本です。
契約・NDAで“見るべき条項”と、受託側が入れたい一文
生成AIで揉める原因の多くは、契約の読み落としです。受託初心者は、まずここだけ見てください。
最低限チェックする条項(ここだけでもOK)
- 秘密情報の定義:何が秘密扱いか(広すぎると何も入力できない)
- 第三者提供・再委託の禁止:クラウドAI利用が再委託扱いになり得るか
- 目的外利用の禁止:別案件への転用、学習目的の使用が禁止されているか
- 返却・削除:納品後のデータ削除義務(ログや中間成果物も対象か)
- 損害賠償条項:賠償上限があるか/実質無制限か(報酬と釣り合うか)
- 保証条項:権利侵害ゼロ保証、完全性保証など、重すぎる保証がないか
受託側が入れたい「AI利用の書き方」例(コピペ可・必要に応じて調整)
※法的助言ではありません。契約形式に合わせ、クライアントの承諾を得てください。
- AI利用の目的を限定する
「受託者は、成果物作成の補助として生成AIを利用する場合がある。利用は構成案作成、文章表現の改善、誤字脱字チェック等に限り、最終成果物は受託者が内容確認の上で納品する。」 - 入力禁止情報を明記する
「受託者は、機密情報、個人情報、顧客データ、認証情報等を生成AIに入力しない(クライアントが書面で許可した場合を除く)。」 - 条件付き入力の手順(匿名化+承諾)
「クライアント情報を取り扱う必要がある場合、受託者は事前にクライアントの承諾を得た上で、匿名化・一般化等の措置を講じる。」 - オプトアウト設定を明記(クライアント安心材料)
「受託者は、生成AIの利用に際し、提供サービスの設定により、入力内容がモデル改善(トレーニング)に利用されないよう可能な範囲でデータコントロールを行う。」 - 最終判断(責任分界)
「生成AIの出力は参考情報であり、成果物の最終内容の判断・採用は受託者(またはクライアント)が行う。」
匿名化の実務テク:固有名詞を“記号置換”してから入力する
守秘義務対策で最もコスパがいいのは、依頼文をそのまま貼らず、要件メモ化+記号置換することです。
ダメな例(そのまま貼る)
「株式会社○○の新商品△△の販促LPを作って。3月のキャンペーンで…(顧客データ・売上目標・担当者名…)」
良い例(要件メモ+記号置換)
- 会社:A社(業種:食品D2C)
- 商品:X(カテゴリ:プロテイン系)
- 目的:LP改善(CVR向上)
- ターゲット:20〜30代、健康志向
- 訴求:時短・続けやすさ・味
- トーン:明るい、信頼感
- NG:固有名詞、内部数字、未公開施策、顧客の生データ
この形なら、AIには“仕事に必要な条件”だけを渡せます。固有名詞をA社/X/Y氏に置き換えるだけでも安全性は上がります。
具体例:会社員副業で「提案資料作成」を受託する場合の安全フロー
例)あなたは会社員。副業で中小企業の提案資料(構成+文章)を受託。AIでたたき台を作って時短したい。
ステップ1:AI利用可否を最初に確認(メール1通でOK)
- AIを使う工程(例:見出し案/言い回し改善/誤字チェック)
- 入力する情報の種類(公開情報のみ/匿名化した要件のみ)
- 入力しない情報(社内資料、顧客名、未公開施策、内部数字など)
- 必要なら「学習利用をオフにする設定を行う」旨(オプトアウト)
ステップ2:依頼文は“要件メモ+記号置換”に変換してから入力
そのまま貼らない。A社・X・Y氏に置換し、固有情報を落とします(前章の例をテンプレ化)。
ステップ3:納品前に「漏えい観点」のセルフチェック
- 固有名詞(社名・人名・プロジェクト名)が残っていないか
- 内部情報(未公開施策、内部数字、顧客の生データ)が入っていないか
- AIの出力をそのまま採用していないか(必ず人が整える)
- ログ保存が必要なら、保存先とアクセス権(自分だけ/共有)を整理したか
よくある失敗5選と回避策(守秘義務・契約・漏えい)
- 失敗1:依頼文・メール・スプレッドシートを丸ごと貼り付けた
回避策:要件メモ化+記号置換。個人情報・固有名詞は削る。 - 失敗2:NDAの「第三者提供禁止」「再委託禁止」を読んでいなかった
回避策:AI利用前に該当条項を確認。解釈が不明ならクライアントに確認する。 - 失敗3:クライアントに無断でAIを使い、後から不信感
回避策:最初に「使う工程」「入力しない情報」「必要ならオプトアウト設定」を明記して了承を取る。 - 失敗4:損害賠償が無制限に近い契約を軽く受けた
回避策:賠償上限の有無を確認。釣り合わないなら見送る。 - 失敗5:本業の社内データを“ちょっとだけ”混ぜた
回避策:副業と本業を混ぜないルールを固定。社内規程の確認を最優先にする。
【コラム】口約束だけの発注は危険:発注書・合意書を残す(下請法の視点も)
会社員副業・受託初心者ほど、「チャットだけで仕事が進む」状況になりがちです。ですが、後から揉めるのはたいてい“言った言わない”です。
取引の条件次第では、下請法の対象となる可能性があります。難しい法律判断が必要な場面もあるため、まずは自衛として発注条件が書かれた文書(発注書・業務委託契約・メール合意)を必ず残すことを徹底しましょう。最低限、次を文字で残しておくと揉めにくくなります。
- 業務内容(何を、どこまで)
- 納期
- 報酬・支払条件
- 修正回数・検収条件
- 秘密保持の範囲
- AI利用の可否と条件(入力禁止・オプトアウト等)
すぐできるチェックリスト:AIを使う前に確認すること(クライアントワーク版)
- クライアントはAI利用を許可している(可否・条件が文章で残っている)
- NDA/契約の「第三者提供」「再委託」「目的外利用」を確認した
- 入力禁止情報リストを作り、案件に合わせて更新した
- 個人情報・顧客情報・認証情報・未公開情報を入力しない運用になっている
- 依頼文は“要件メモ+記号置換(A社、X、Y氏)”してからAIに入力する
- 学習利用をオフにする設定(オプトアウト)を必要に応じて行い、説明できる
- 出力は参考扱い。最終成果物は人が確認・修正する
- 納品後のデータ削除・ログ扱いの方針が決まっている
- 損害賠償の上限が釣り合っている(無制限なら要注意)
まとめ:チェックリストと次にやること
クライアントワークで生成AIを使うかどうかは、「便利かどうか」より守秘義務と契約に適合しているかが最優先です。事故る人の共通点は、無断利用/入力のやりすぎ/契約の読み落とし/責任が重すぎる条件を見ていないのいずれか。
対策は難しくありません。「AI利用の可否を確認」→「入力禁止を固定」→「オプトアウト等の技術的対策を説明できる」→「契約に一文入れる」→「要件メモ化して使う」をテンプレ化すれば、情報漏えいリスクを大きく下げられます。
次にやること(3ステップ)
- ステップ1:あなた用の「入力禁止情報リスト」を作る(個人情報・顧客情報・未公開情報・認証情報・社内データは原則NG)
- ステップ2:次の案件から、AI利用可否の質問テンプレ+「学習利用オフ(オプトアウト)設定」の説明を最初のヒアリングに入れる(文章で残す)
- ステップ3:NDA/契約の「第三者提供・再委託・損害賠償」を必ず確認し、必要ならAI利用条項(入力禁止+オプトアウト)を追記する
