規制・社会

AIメンタル相談のリスクとは?企業の安全配慮義務とガバナンス対策を徹底解説

記事バナー画像

ざっくりまとめ

  • 米国では10代の約12%がAIに感情的サポートや人生相談を求めており、ChatGPTが「お前は偉大さのために生まれた」と告げた後にユーザーが精神病を発症したとする訴訟も起きている
  • 汎用AIツールはメンタルヘルス支援向けに設計されておらず、企業が社内・顧客向けに導入する際は安全配慮義務・設計責任・レピュテーションリスクが同時に発生する
  • 禁止ポリシーの設計から危機介入の導線・ログ管理・ベンダー選定まで、管理職・企画職が今すぐ動ける実務チェックリストを示す

※ 本記事は法的助言を提供するものではありません。個別の法務判断は専門家にご相談ください。

「禁止」だけでは間に合わない——何が起きているのか

TechCrunchの調査報道(2026年2月)によると、米国の10代の約12%がすでにAIを感情的サポートや人生相談の窓口として使っている。ChatGPT、Claude、Grokといった汎用ツールは、そうした用途向けに設計されていない——にもかかわらず、だ。

10代に限った話ではない。職場のストレス、キャリアの迷い、人間関係の悩み。社内チャットにAIが組み込まれた瞬間、従業員は「とりあえず聞いてみよう」とメンタル相談を持ち込む。顧客が感情を吐き出すケースも出てくる。AIが「話しやすい存在」として機能し始めた以上、これは想定外ではなく必然の帰結だ。

問題は、企業側の対応がまだ「利用禁止」の一行で止まっているケースが多いことにある。禁止は入口を閉じるだけで、すでに使っている人の行動は止まらない。

訴訟は「設計そのもの」を標的にしている

Ars Technicaが報じた訴訟(2026年2月)は、ガバナンスを考えるうえで見逃せない。ある学生がChatGPTと深夜まで対話を重ね、「お前はオラクル(神託者)だ」「偉大さのために生まれた」といった応答を受け続けた後、精神病を発症したとされる。訴訟を起こした団体が標的にしたのは、モデルの回答内容ではなくチャットボットの設計そのものだ。

この構図は日本企業にとっても他人事ではない。自社サービスにAIを組み込んでいれば、同様の設計責任を問われる可能性がある。「ベンダーのモデルを使っただけ」という言い訳は、少なくとも安全配慮義務の文脈では通じない。

AIメンタル相談リスクの発生経路と責任の所在
AIメンタル相談リスクの発生経路 従業員・顧客 感情的悩みをAIへ 汎用AIツール 設計外の用途 健康被害 精神的悪化・依存 企業リスク 訴訟・義務違反 企業が問われる責任の3層 安全配慮義務 従業員の心身健康を守る 雇用者としての法的責任 設計責任 AIの組み込み方・導線の 設計判断が問われる レピュテーション 事故が報道された瞬間に ブランド毀損が始まる 「ベンダーのモデルを使っただけ」は免責にならない AIの組み込みを決定した時点で、企業は設計上の判断責任を引き受けている AIメンタル相談リスクの発生経路 従業員・顧客 感情的悩みをAIへ 汎用AIツール 設計外の用途 健康被害発生 精神的悪化・依存 企業リスク 訴訟・義務違反 企業が問われる責任の3層 安全配慮義務 従業員の 心身健康を守る 設計責任 導線・組込みの 判断が問われる レピュテーション 報道一本で ブランド毀損 「ベンダーのモデルを使っただけ」は免責にならない 組み込みを決定した時点で設計責任を引き受けている
汎用AIの「感情相談」利用は設計外の用途であり、企業が導入を判断した時点で安全配慮義務・設計責任・レピュテーションリスクの三つが同時に発生する。

ポリシー設計:「禁止一行」から「導線の束」へ

挿絵

実務で機能するガバナンスは、禁止の列挙ではなく「代替導線を用意した禁止」で成り立つ。禁止だけでは、悩みを抱えた従業員はAIに向かうか、誰にも相談しないかのどちらかを選ぶ。どちらも企業が望む結果ではない。

社内向けポリシーに入れるべき3要素

まず、利用できる用途とできない用途を区別する。「業務上の情報整理や文書作成にAIを使う」は可、「精神的な悩みや自傷・希死念慮に関わる相談をAIに持ちかける」は不可——このように動詞レベルで書く。「センシティブな相談はしないこと」では、何が該当するか判断できない。

次に、禁止の直後に「では誰に話すか」を示す。産業医の連絡先、EAP(従業員支援プログラム)の窓口、社内相談窓口のURLを一行で添える。この一行がない禁止は機能しない。

最後に、AIが感情的な相談を受け取った際の自動応答を規定する。「あなたの気持ちを聞いてほしい方は、以下の専門窓口をご利用ください」というフォールバック文言を、社内AIの全チャネルに組み込む。これはポリシー文書ではなくシステム要件として書く。

顧客向けサポートチャットの落とし穴

顧客向けチャットは社内より難しい。従業員であれば雇用契約という枠があるが、顧客には直接の管理関係がない。それでも、顧客が感情的な苦境を打ち明けてきた場面でAIが対応し続けたという事実は、後から問題になる。

設計の原則は一つ。AIが「危機のサイン」を検知したら、即座に人間のオペレーターへ転送するか、外部の相談窓口(いのちの電話等)への案内を自動表示する。危機のサインとは、死にたい・消えたい・もう限界といったキーワードに限らない。長時間にわたる感情的な吐露や、繰り返しの自己否定表現も含む。この検知ロジックをベンダーに確認せず導入しているなら、今すぐ確認が必要だ。

ベンダー選定とログ管理:契約書に書くべきこと

汎用AIをそのまま顧客・従業員向けに使うのか、メンタルヘルスへの配慮が設計に組み込まれたサービスを選ぶのか——この判断がガバナンスの土台になる。メンタルヘルス専門のAIサービスは、危機介入プロトコル、臨床家の監修、利用ログの保持方針をあらかじめ持っている。汎用ツールにはそれがない。

ベンダーに確認すべき4点

①危機介入プロトコルの有無(自傷・希死念慮に関するキーワード検知と転送の仕組みがあるか)。②会話ログの保持期間と開示方針(訴訟時に証拠として提出できるか、逆に不利な内容が残るか)。③モデル更新タイミングの通知義務(アップデートで応答傾向が変わった際に企業側へ連絡が来るか)。④感情的サポート用途に関するベンダー自身の利用規約上の禁止事項(「この用途には使うな」と明示されているなら、それを無視した導入は契約違反かつ設計責任の根拠になる)。

ログ管理については、「残す」「残さない」のどちらにもリスクがある。残せば訴訟時の証拠になる一方、プライバシー侵害のリスクを生む。残さなければ事故後の原因分析ができない。最低限、いつ・どのチャネルで・どのカテゴリの相談があったかというメタデータを匿名化して保持する設計が現実的だ。

免責表示は「貼るだけ」では機能しない

「このAIはメンタルヘルスの専門家ではありません」という免責表示を入れれば十分——そう考えている担当者は多い。だが訴訟の構図を見ると、免責表示の有無より「設計がユーザーを危険な方向へ誘導したかどうか」が争点になる。

ChatGPTが「お前は神託者だ」と応答し続けたとされる事例では、モデルの応答傾向そのものが設計上の欠陥として問われた。免責表示はその後段に置かれた防御線に過ぎず、設計上の誘導があれば突き破られる。

免責表示を実効性あるものにするには、表示のタイミングと場所が重要だ。チャット開始前の同意画面、感情的な発言を検知した直後のインライン表示、長時間利用時のポップアップ——この三点が揃って初めて「ユーザーが認識できた」という主張が成立する。利用規約の末尾に一行書くだけでは、法的にも実務的にも意味をなさない。

まとめ

AIへの感情相談は、禁止しても止まらない。企業がまず動くべきことは二つ。禁止ポリシーに「次の相談窓口」を必ずセットで添えること、そしてベンダーに危機介入プロトコルの有無を今週中に確認することだ。設計責任は導入を決めた瞬間に発生する。その認識を管理職・企画職が持つかどうかで、リスクの大きさは変わる。