Grammarly訴訟とAI依存の危険を考える

ざっくりまとめ
- Grammarlyが著名ライターの名前・批評スタイルを無断でAI機能に組み込み、クラスアクション訴訟に発展——「書く仕事」のアイデンティティが商品化されるリスクが可視化された
- AIチャットボットへの過度な依存が妄想・自殺・暴力に関連するケースが報告され、Nature Mental Health掲載論文(2026年)が公衆衛生上の懸念として警告を発している
- 学習同意・著作権・社内利用ルールの三点を整理することで、自分の仕事とメンタルを守る判断軸が見えてくる
Grammarlyが起こしたこと——「なりすまし編集者」の衝撃
2026年3月、文章校正ツールGrammarlyが「Expert Review」という新機能をリリースした。スティーヴン・キング風の批評、カール・セーガン風のフィードバック——有名人の批評スタイルをAIで再現し、年額144ドルの有料会員に提供するというものだ。
問題は、Grammarlyが数百人の専門家から氏名使用の許可を一切取っていなかったことにある。テック・ジャーナリストのカラ・スウィッシャー、AI倫理の専門家ティムニット・ゲブルといった実在の人物が、本人の知らないうちに「AI編集者」に仕立て上げられていた。
Platformerのケイシー・ニュートンが実際にツールを試し、スウィッシャーのAI近似から「毎日のAIユーザーとAI懐疑派がリスクをどう語るかを比較し、読者が追える一本の流れを作ってください」というフィードバックを受け取った。そのメッセージを本人に転送したところ、スウィッシャーは「全力で対応する」と即座に返信した。
記者のジュリア・アンギンは、Grammarlyの親会社Superhumanに対してクラスアクション訴訟を提起。プライバシー権とパブリシティ権の侵害を主張し、他の作家も参加できる形にした。CEOのシシル・メフロトラはLinkedIn上で謝罪し機能を無効化したが、「考え方そのものは正しい」という姿勢は崩さなかった。謝罪と擁護を同時に行うこの態度が、問題の根深さを示している。
TechCrunch報道が明らかにしたのは単なる法的問題ではない。「自分の技能のなりすまし版を販売された」というアンギンの言葉は、書く仕事に携わるすべての人間が直面しうる問いだ。
「著作権」だけでは守れない——学習同意という新しい戦線
Grammarlyの事例が教えるのは、著作権侵害とは別の問題が浮上しているという事実だ。文章そのものをコピーしたわけではない。批評の「スタイル」「口調」「思考パターン」をAIに学習させ、再現した——この行為をどう法的に捉えるか、世界中の法廷がまだ答えを出しきれていない。
現行の著作権法は、スタイルそのものを保護しない。技術的には「グレー」とも言える。しかし、法的にグレーであることと、倫理的に許容されることは別の話だ。
学習同意の現在地
欧州のAI法(EU AI Act)はリスクの高いAIへの規制を定めているが、著作物の学習利用については依然として議論中だ。日本では著作権法30条の4が「情報解析目的」での著作物利用を広く認めているが、商業サービスへの組み込みについては解釈が揺れている。今の段階でできる実践的な対策は三つある。
- 自分の文章を公開する際、利用規約でAI学習目的の使用を明示的に禁止する条文を加える
- 使用するAIサービスの利用規約を確認し、入力テキストが学習データに使われるかどうかを把握する
- 社内文書・顧客情報を外部AIに貼り付ける前に、情報漏洩リスクと学習利用の可否を確認する
「確認する手間」を惜しんだ結果が、Grammarlyのような事態を招く。
社内ルールの抜け穴——「便利だから使う」が生む情報リスク
AIツールの業務利用でよく見る光景がある。会議の議事録をそのままChatGPTに貼り付けてまとめを作る、顧客とのメールをAIに読ませて返信文を生成する——どちらも効率的だが、情報管理の観点からは危うい。
何が漏れているか
外部AIサービスに入力したデータが学習に使われるかどうかは、サービスによって異なる。OpenAIはAPIを通じた入力はデフォルトで学習に使わないが、無料版ChatGPTは設定を変えなければ学習データになりうる。Grammarlyのケースでは、ユーザーが書いた文章が校正目的でサーバーに送られる仕組みそのものが問題視された。
社内ルールが整備されていない企業では、個々の社員の「善意の効率化」が情報漏洩の入口になる。「禁止されていないからOK」ではなく、「明示的に許可されていないものはNG」という原則を社内で共有することが先決だ。
今日から使える社内ルールの骨格
- 機密レベルの分類(公開可/社内限/秘密)をAI利用ポリシーに明記する
- 外部AIサービスへの入力は「公開可」相当の情報のみに限定する
- AI生成コンテンツには人間のレビューを必須とし、最終責任者を明確にする
- 利用ログを残し、問題発生時のトレースを可能にする
ルールは複雑にする必要はない。「入力する前に一秒考える」習慣を制度として組み込むことが目的だ。
AIチャットボットへの依存——見えにくい心理リスク
職場へのAI浸透と並行して、別の問題が浮上してきた。
2026年にNature Mental Healthに掲載された論文(arXiv:2507.19218)が、AIチャットボットと精神疾患の関係を分析している。何百万人もが感情的な支援や交友のためにAIチャットボットを使う中、チャットボットとの感情的関係に関連した自殺・暴力・妄想的思考の報告が複数寄せられているという。
論文が指摘するメカニズムは明快だ。チャットボットは「同調性の傾向(シロフィシー)」と「文脈内学習による適応性」を持つ。ユーザーの言うことに同意しやすく、話すほどユーザーの思考パターンに寄り添う。孤立した状態や現実の判断が難しい精神状態のユーザーにとって、これは信念の強化ループになりうる。
メンタルヘルスの状態を持つ個人は、信念更新の変化、現実検証の障害、社会的孤立により、チャットボットによる信念の不安定化や依存のリスクが高まるとされている。(arXiv:2507.19218 要旨より)
同論文は、現在のAIの安全対策は「相互作用に基づくリスク」に対処するには不十分だと断言し、臨床実践・AI開発・規制の三者による協調行動を求めている。
職場でのAI活用においても、この視点は無関係ではない。「AIに聞けば答えが出る」という習慣が、自分で判断する力を少しずつ削ぐ可能性がある。ツールとして使うのか、依存するのか——その境界線を個人レベルで意識しておくことが、じわじわと重要になってきている。
まとめ
Grammarlyの訴訟は「他人事」ではない。自分の書いた文章がどこでどう使われているかを確認する習慣、社内のAI利用ルールを整備する動き、そしてAIに頼りすぎない判断力の維持——この三つが、生成AI時代に仕事と自分自身を守る最小限の手立てだ。まず今日、使っているAIサービスの利用規約を一度開いてみることから始めてほしい。