「クライアントから渡された社外秘のマニュアル、AI翻訳にかけても大丈夫かな?」
「NDA(秘密保持契約)を結んでいる案件で、DeepLやChatGPTを使うと契約違反になる?」
会社員の副業やフリーランスにとって、納品ミスより怖いのが情報漏えいによる信用失墜です。AI翻訳は便利ですが、ツール選びや使い方を一つ間違えるだけで、知らないうちに外部サーバーへ送信してしまい、守秘義務違反を疑われる可能性があります。
ただし、だからといって「全部AI禁止」にすると非効率です。大事なのは「どこまでなら安全か」の境界線を理解し、説明できる運用ルールを持つこと。
この記事では、守秘義務(NDA)がある案件でも安全側に寄せてAI翻訳を扱うための「入力NG情報リスト」と鉄壁の運用ルールを手順書としてまとめます。※本記事は一般情報であり、個別案件への法的助言ではありません。最終判断は契約(NDA)・クライアント指示・所属企業の規程が優先です。迷う場合は必ず確認してください。
結論:守秘義務案件でAI翻訳を使うなら「許可・入力最小化・環境」の3点セット
守秘義務がある仕事でAI翻訳を使えるかは、AIの賢さより運用設計で決まります。安全側に寄せる前提は次の3つです。
- 前提① 許可(合意)を取る:AI使用可否(ツール名・プラン・入力範囲)を受注前に文章で合意する
- 前提② 入力最小化:個人情報・機密・未公開情報は原則入力しない(必要なら匿名化して“最小の断片”だけ)
- 前提③ 環境を選ぶ:個人向け無料ツールに丸投げしない。クライアント指定環境/企業向けプラン/API/ローカル運用を優先する
特に危険なのが「学習オフにしたからOK」という思い込みです。たとえばGeminiは、設定でアクティビティをオフにしても、サービス提供や安全性維持などの目的で最大72時間サーバー上に保持され得ると説明されています(その一方で、モデル改善に使われない旨も明記されています)。つまり、“学習されない=何を入れてもOK”ではなく、“保持される時点で機密リスクが残る”という発想が必要です。
守秘義務(NDA)で問題になるのは「漏えい」だけじゃない
守秘義務というと「SNSに公開しなければ大丈夫」と思いがちですが、実務で揉めるのはもっと広いです。AI翻訳を使うと、あなたの意図とは無関係に「外部送信」「保持」「ログ」が発生する可能性があります。
- 第三者への提供:外部サービスに送信した時点で、契約上「第三者提供」とみなされる可能性
- 保持・ログ:短時間でもサーバーに保存される、監査やトラブル対応で参照され得る
- 再利用:モデル改善に使われる/使われないはプランや設定で差がある(ただし“使われない”でも保持は別問題)
- アクセス範囲:組織内の権限、監査ログ、管理者の可視性(企業向けほど管理は強いが、同時にルールも厳しい)
結論として、守秘義務案件で大切なのは「気をつける」ではなく、契約と運用で説明できる状態にしておくことです。
AI翻訳に「入力してはいけない情報」一覧(NG例)
ここは最重要です。下記は、クライアントが明確に許可していない限り、外部AI(翻訳サイト・チャットAI等)へ入力しない方が安全です。
- × 個人情報(PII):氏名、住所、電話、メール、顔写真、会員番号、顧客ID、医療情報、口座情報
- × 社外秘・未公開情報:取引先名、案件名、見積金額、単価、契約条件、NDA本文、ローンチ前資料、会議メモ、ロードマップ
- × 認証・セキュリティ情報:パスワード、APIキー、秘密鍵、VPN情報、脆弱性報告、インシデント関連
- × 外部送信禁止の文書:NDAや社内規程で「外部サービス入力禁止」「国外サーバー禁止」などがあるもの(学習オフでもNGになり得る)
- × 資料一式の丸ごとコピペ:漏えい範囲が爆発するため、断片化・最小化が基本
英語が苦手でも「整形・チェック」で参入できるのは事実ですが、守秘義務案件では“入力してよい情報の線引き”がスキルになります。ここを曖昧にすると、翻訳品質以前に信用を失います。
初心者がやりがちなNG運用5つ(事故パターン)
ルールを作っても、ありがちなミスを潰せないと事故が起きます。特に多いのが次の5つです。
- NG1:クライアント許可なしで、個人向け無料AI(翻訳サイト/チャットAI)にそのまま貼る
- NG2:「学習オフ=安全」と勘違いし、保持・ログ・外部送信の論点を見落とす
- NG3:匿名化したつもりでも、文脈(製品名、日付、金額、組織図)で特定される
- NG4:マスキング後の戻し忘れ(A社のまま納品、数値が仮置きのまま)
- NG5:契約書、医療・金融・法務など高リスク文書まで、勢いでAIに通す
ポイントは、守秘義務案件では「便利だから使う」ではなく、“使うなら条件を揃える”という順番にすることです。
安全な運用ルール:守秘義務案件でも使うならこうする(手順書)
ここからが具体策です。守秘義務案件でAI翻訳を使うなら、次の順番で運用を組み立てると安全側に寄せられます。
ルール1:AI使用可否を「文章で」合意する(ツール名まで)
口頭合意は後で揉めます。最低でもプラットフォームのメッセージやメールで残しましょう(証跡になります)。確認するのはこの4点です。
- AI使用の可否:そもそもAI(外部サービス)を使ってよいか
- 使用ツールの指定:DeepL Pro/ChatGPT(どのプラン)/Google Cloud Translation API など
- 入力範囲:固有名詞・数値・個人情報の扱い(入力してよいか、匿名化必須か)
- 成果物・データの扱い:保存期間、納品後の削除、ファイル共有方法
ルール2:入力最小化(断片化)を徹底する
守秘義務案件でのコツは、AIに丸投げしないこと。AIに入れるのは、翻訳のために必要な最小単位だけにします。
- 段落ごとに分割して処理(資料一式は貼らない)
- 固有名詞・数値が密集する段落はAIに入れず、人力で処理する
- 用語集は「一般用語だけ」抽出し、社名・顧客名を含めない
“最小化”は、漏えいリスクだけでなく、誤訳の原因(文脈不足)も減らしやすい実務的メリットがあります。
ルール3:匿名化(マスキング)は「手順化」しないと危険
匿名化は有効ですが、事故も起きやすい工程です。やるなら次を固定します。
- 置換ルール:社名→A社、製品→製品X、顧客→顧客Y のように一貫させる
- 数値の扱い:許可がある場合のみレンジ化(例:1,234,567円→約120万円)
- 納品前確認:「A社」「製品X」「顧客Y」を検索し、ゼロ件を確認してから納品
※注意:Word/Excelの一括置換は便利ですが、ヘッダー/フッター、図形内テキスト、コメント、メタデータ(プロパティ)などで置換漏れが起きることがあります。匿名化した場合は、本文以外の要素も確認対象に含めてください。
ルール4:ツール選びは“無料個人向け”を避け、企業向け・Pro・API・指定環境を優先
守秘義務案件では、ツール選びがリスクの大半を決めます。ざっくりの安全側序列は次の通りです。
| 選択肢 | 守秘義務案件の考え方 | 実務メモ |
|---|---|---|
| 個人向け無料(翻訳サイト/チャットAI) | 原則避ける | 保持・ログ・データ利用の論点が残りやすい |
| 個人向け有料(設定で学習オフ等) | 案件条件次第 | 学習に使われない場合でも保持が残ることがあるため、機密には慎重に |
| DeepL Pro(有料) | 安全側に寄せやすい | 機密案件では無料版ではなくProを検討する、が基本の考え方 |
| Google Cloud Translation API(API) | 安全側に寄せやすい | 設定・請求が必要で上級者向け。大量処理・業務運用向き |
| 組織向け(ビジネス/エンタープライズ) | 安全側に寄せやすい | 管理・監査が強い一方、社内ルールに従う必要がある |
| クライアント指定の環境(社内ツール等) | 最優先 | 相手のコンプラに合わせやすく、説明責任も果たしやすい |
「DeepL Pro」「Google Cloud Translation API」のように、ツール名まで含めて合意しておくと、後からの齟齬が減ります。逆に「AIなら何でもOK」と曖昧にすると、後で“それはNG”が起きやすいです。
ルール5:作業後の“痕跡”まで管理する(ログ・ファイル・履歴)
見落とされがちですが、守秘義務案件は作業後の痕跡もリスクです。最低限ここまで面倒を見ます。
- 翻訳途中の貼り付けメモ(テキストファイル)を放置しない
- 共有PC・家族共用端末では作業しない(物理的リスク)
- 納品後のデータ削除はクライアントの指示に従う(勝手に消す/勝手に残す、どちらも揉めやすい)
- クラウド保存が必要な場合は、保存先・共有範囲・権限を明確化する
具体例:守秘義務案件で“安全にAIを使う”現実的な落としどころ
「じゃあ結局、毎回AI禁止?」となりがちですが、守秘義務案件でも現実的な落としどころは作れます。例として、社外秘のマニュアル翻訳(英→日)を想定します。
- ステップ1:クライアントにAI使用可否を確認(DeepL ProのみOK/固有名詞は入力NG、など条件を確定)
- ステップ2:固有名詞・数値がある段落は人力で処理し、一般説明部分だけを断片でAIに投入
- ステップ3:出力をMTPE(原文照合)で修正し、用語統一・表記統一を実施
- ステップ4:匿名化した箇所は戻し忘れを検索で確認し、納品前チェックを実施
この運用の良い点は、「AIを使った/使ってない」の二択ではなく、入力範囲をコントロールして説明可能な状態にできることです。
すぐ使える:クライアント確認メッセージ(コピペOK)
契約書がなくても、最低限の合意をメッセージで残すと揉めにくくなります。
- 「本件は守秘義務(NDA)対象のため、AI翻訳の利用方針を確認させてください。AI使用の可否、使用する場合のツール名(例:DeepL Pro/Google Cloud Translation API 等)、および入力してよい情報の範囲(個人情報・固有名詞・数値)をご指示いただけますでしょうか。」
- 「AI利用が許可される場合も、社名・顧客名などは匿名化し、納品前に置換戻しを検索で確認します。」
- 「AI利用が不可の場合は、AIを使わずに翻訳・整形・用語統一で対応します。」
よくある失敗5選と回避策
失敗1:無料ツールに“うっかり”貼ってしまう
回避策:守秘義務案件は「外部AIに入れない」がデフォルト。必要ならクライアント承認+DeepL Proや指定環境に寄せる。
失敗2:匿名化したのに文脈で特定される
回避策:社名だけ隠しても、製品名・日付・金額・組織図で特定されることがあります。匿名化は“セット”で。
失敗3:一括置換の漏れで情報が残る
回避策:本文だけでなく、ヘッダー/フッター、図形内、コメント、プロパティも確認対象に含める。
失敗4:AI使用可否を確認せずに作業して、後からNGになる
回避策:受注前にメッセージで合意。AIがNGなら人力運用に切り替える。
失敗5:契約上の禁止(外部送信禁止・国外サーバー禁止)を見落とす
回避策:設定より契約が優先。NDA・社内規程の該当条項を確認し、必要ならクライアントへ確認。
すぐできるチェックリスト(守秘義務案件の安全運用)
- AI使用可否(ツール名・プラン・入力範囲)を事前に文章で合意した
- 個人情報・未公開情報・認証情報は外部AIへ入力しない
- 入力する場合は段落分割し、最小化している
- 匿名化した場合、置換漏れ(ヘッダー/図形/プロパティ含む)と戻し忘れを確認した
- 作業後のメモ・一時ファイル・共有範囲のルールがある
- 迷ったら「AIを使わない」判断に切り替えられる(代替手順がある)
まとめ
守秘義務(NDA)がある仕事でAI翻訳を使えるかは、ツールの性能ではなく許可(合意)・入力最小化・環境選びで決まります。 特に「学習に使われない設定」だけでは不十分で、保持・ログ・外部送信・契約条項まで含めて安全側に倒すのが基本です。Geminiのように、モデル改善には使われなくても一定期間保持され得る仕様がある以上、機密案件では“保持されること自体がリスク”として扱うのが現実的です。 副業では、AIを使う/使わないより事故らない運用を説明できる人が継続で選ばれます。
次にやること(3ステップ)
- Step1:クライアント確認テンプレを作り、「AI使用可否・ツール名(DeepL Pro等)・入力範囲」を毎回メッセージで合意する
- Step2:入力NG情報リスト(個人情報/社外秘/認証情報)を自分の作業環境に貼り、うっかり事故を防ぐ
- Step3:匿名化・入力最小化・納品前検索の“手順”を固定し、案件条件に合わせてAIあり/なしを切り替える
