規制・社会

生成AIと非弁行為:企業が今すぐ見直すべき運用

記事バナー画像

ざっくりまとめ

  • 日本生命が米国でOpenAIを提訴。ChatGPTが無資格で法的助言(非弁行為)を行ったとする訴訟が、生成AI活用の法的リスクを企業の実務レベルに引き下げた。
  • 契約書レビュー・クレーム対応・保険相談の3場面で、AIの回答が「非弁行為」とみなされるラインが存在する。社内ガイドラインにその境界を引けていない企業は、今すぐ見直しが必要だ。
  • NGパターンの具体例と、免責・監督・ログの3軸で構成する安全な運用設計を解説する。

※ 本記事は法的助言を提供するものではありません。具体的な判断は弁護士に相談してください。

日本生命がOpenAIを訴えた——何が問題だったのか?

日本生命は米国でOpenAIを提訴した。争点は、ChatGPTが弁護士資格を持たないまま法的な助言を行った、すなわち「非弁行為」にあたるという主張だ。

非弁行為とは、資格を持たない者が報酬を得る目的で法律事務を取り扱うことを禁じたルールを指す。日本でも弁護士法72条が同趣旨の規定を置く。AIがこの線を越えたとされるなら、それを社内で使っていた企業も無関係ではいられない。

今回の訴訟が示す本質は、「AIが答えを出した」という事実そのものではなく、その答えが誰かの法的判断を代替したかどうかにある。ここを誤解したまま社内展開している企業が、日本にも相当数存在するはずだ。

どこからが「非弁行為」になるのか——3つの危険シーン

契約書レビューで「これで問題ない」と答えさせる

営業担当が取引先から受け取った契約書をChatGPTに貼り付け、「法的に問題ありますか?」と尋ねる。AIが「特に問題はありません」と返答し、担当者がそのまま押印する——これは危ない。

問題の核心は、AIの回答が「法律判断の代替」として機能した点にある。契約条項の有効性やリスク評価は法律事務に含まれる。社員がAIの回答を根拠に意思決定した時点で、実質的に無資格の法的助言を受けたと解釈される余地が生まれる。

クレーム対応で「法的に問題ない」と顧客に伝える

カスタマーサポートがクレームを受け、AIに「この返金要求には応じる義務がありますか?」と聞く。AIが「義務はありません」と回答し、その文言をほぼそのまま顧客へのメールに転記する——典型的なNGパターンだ。

相手が顧客である点がリスクをさらに高める。社内の判断材料としてAIを使うのと、その判断を顧客への回答として外部に出すのでは、法的な意味がまったく異なる。後者は「顧客に対する法的助言の提供」と受け取られかねない。

保険・金融相談で具体的な商品推奨をさせる

「私の状況に合った保険を教えて」という顧客の問いにAIが答え、特定商品への加入を勧める。これは非弁行為の問題に加え、金融商品取引法・保険業法上の無登録募集という別の違反リスクも発生する。生成AIの「具体性」が、まさに法的な地雷になる場面だ。

生成AI活用の「安全ゾーン」と「危険ゾーン」
安全ゾーン 「情報提供」にとどまる使い方 契約書の「条文の意味」を説明させる → 解釈の判断は人間が行う クレーム対応の「文章ドラフト」作成 → 送付前に担当者・法務が確認 保険商品の「仕組み・用語」解説 → 推奨・判断はしない 社内FAQ・制度の「要約・検索補助」 → 最終判断は担当部門 危険ゾーン 「法的判断の代替」になる使い方 「この契約は法的に有効ですか?」 → 有効性判断は法律事務に該当 「返金義務はない」を顧客メールに転記 → 外部への法的回答に相当 「あなたにはこの保険が最適」と推奨 → 無登録募集リスクも発生 「訴訟になっても問題ない」と断言 → 法的リスク評価は弁護士業務 境界線 安全ゾーン 「情報提供」にとどまる使い方 契約書の「条文の意味」を説明させる → 解釈の判断は人間が行う クレーム対応の「文章ドラフト」作成 → 送付前に担当者・法務が確認 保険商品の「仕組み・用語」解説 → 推奨・判断はしない 社内FAQ・制度の「要約・検索補助」 → 最終判断は担当部門 境界線 危険ゾーン 「法的判断の代替」になる使い方 「この契約は法的に有効ですか?」 → 有効性判断は法律事務に該当 「返金義務はない」を顧客メールに転記 → 外部への法的回答に相当 「あなたにはこの保険が最適」と推奨 → 無登録募集リスクも発生 「訴訟になっても問題ない」と断言 → 法的リスク評価は弁護士業務
「判断を下す」のが人間かAIかが、安全ゾーンと危険ゾーンを分ける最大の基準。

なぜAIは「判断してしまう」のか——モデルの特性を理解する

生成AIは、質問に対して「答えを返すこと」を最適化されている。「わかりません」「弁護士に聞いてください」という回答は、モデルの評価指標上でネガティブに扱われやすい。つまり、構造的に断言しやすい設計になっているのだ。

OpenAIのGPT-5.4 Thinking System Cardでも、法的助言の適否判断はモデル単体では担保できないことが前提とされている。OpenAI自身が「モデルだけで安全性を保証することはできない」というスタンスを取っている以上、企業側の運用設計が不可欠だ。

特に注意が必要なのは、高度な推論モデルほど「もっともらしい回答」を生成する能力が上がる点だ。回答の自信度が高く見えるほど、受け取る側が鵜呑みにするリスクも高まる。モデルが賢くなるほど危うさも増すという、この構造的な問題は今後より深刻になる。

安全な運用は「免責・監督・ログ」の3軸で設計する

挿絵

免責:AIの回答に「これは判断ではない」と明示する

システムプロンプト(AIへの事前指示文)に「法的判断・推奨を行わないこと」「回答の末尾に必ず免責文を付けること」を組み込む。社内ツールとして展開する場合の、最低限の処置だ。

顧客向けチャットボットや問い合わせ対応に使う場合は、画面上に「この回答は情報提供であり、法的助言ではありません」という常時表示を設けるべきだ。免責の有効性は「利用者が実際に読める場所にあるか」で変わる。

監督:AIの回答を「人間が確認してから使う」フローを固定する

口頭で「確認してから使うように」と言うだけでは機能しない。業務フロー上に承認ステップを組み込み、法務・コンプライアンス担当者のレビューなしに外部送付できない仕組みにする。

とりわけ、顧客への回答・契約書への押印・クレーム処理の3場面については、AIの出力をそのまま使うことを明示的に禁止するルールを社内規程に書く。「禁止」と「推奨しない」の差は、事後の責任論で決定的に効いてくる。

ログ:「誰が・何を・どう使ったか」を追跡可能にする

AIの回答内容・プロンプト・使用者・日時をログとして記録する。万が一トラブルが起きたとき、企業側が適切な管理をしていた証跡がなければ、「AIが勝手に答えた」という説明は成立しない。

見落としがちなのは、「出力のどのバージョンを使ったか」の記録だ。AIの回答はプロンプトのわずかな違いで大きく変わる。担当者が使ったプロンプトそのものを残す仕組みも、あわせて検討してほしい。

社内ガイドラインに落とし込む——明日からできる最小実装

完璧なガイドラインを作ろうとすると、何も動かないまま時間が過ぎる。まず「禁止事項リスト」と「使ってよいシーンリスト」の2枚だけ作ることを勧める。

禁止事項として明文化すべき最低限は次の3点だ。

  1. AIの回答を根拠に、法的有効性・法的義務の有無を顧客・取引先に伝えること
  2. AIが作成した契約書ドラフトを、法務レビューなしに署名・押印すること
  3. 保険・金融・医療に関する具体的な商品推奨・診断をAIに行わせること

使ってよいシーンは、「情報の整理・要約・下書き作成」に限定する。AIが「決める」のではなく、人間が決めるための材料を作る——この役割分担を全社員が理解できる言葉で書くことが、ガイドラインの核心だ。

なお、ガイドラインは一度作れば終わりではない。モデルのバージョンアップや新しい業務への展開のたびに、禁止・許可リストを見直す定期レビューの仕組みも同時に設計しておく必要がある。

まとめ

日本生命によるOpenAI提訴は、「AIを使ったら誰が責任を取るのか」という問いを企業の実務に突きつけた。モデルが高度になるほど回答は説得力を増す。だからこそ、「AIは判断しない、人間が判断する」という原則をフローとログで担保することが、今すぐ必要な一手だ。

まず法務・コンプライアンス担当者と「禁止シーンリスト」を1枚作る。それだけで、社内のAI利用が「なんとなく便利」から「管理された運用」へと変わる。