16歳未満SNS禁止が広げる年齢確認とAI規制

POINT
- オーストラリアを皮切りに、欧州・アジアで16歳未満のSNS禁止が相次ぐ。年齢確認の実装義務化は、すでに世界的な流れになっている。
- 年齢確認AIは子どもだけでなく大人全員のデータを取得する。プライバシーリスクと企業の情報管理責任は、働く世代にも直接かかってくる。
- YouTubeのディープフェイク検出拡大は、AI生成コンテンツの信頼性問題がビジネスの現場に波及する前兆だ。
16歳未満のSNS禁止、なぜ今これほど広がっているのか
2025年12月、オーストラリアが世界で初めて16歳未満のSNS利用を法的に禁止した。対象はFacebook、Instagram、TikTok、X、YouTube、Snapchat、Reddit、Twitch、Kickの9サービス。WhatsAppとYouTube Kidsは除外されたが、主要プラットフォームはほぼ網羅されている。TechCrunch
罰則は最大4,950万豪ドル。企業に「子どもをサービスから排除する措置を取れ」と求め、年齢の自己申告では不十分だと明示した。
この動きは孤立した事例ではない。デンマークは15歳未満向け禁止を2026年半ばまでの成立を目指して審議中。フランスでは2026年1月下旬に下院で15歳未満対象の法案が可決された。ギリシャは2027年1月からの15歳未満禁止を宣言し、インドネシアも2026年3月に16歳未満禁止を発表、YouTube・TikTok・Facebook・Instagram・Threads・X・Bigo Live・Robloxを対象に挙げた。スペイン、ドイツ、スロベニア、英国、マレーシアでも同様の議論が進んでいる。
各国が同時期に動いた背景には、子どもの不安や睡眠障害の増加、アルゴリズムが生む依存性への政治的な圧力がある。英国は無限スクロールのような利用を促す設計そのものを規制対象にするかどうかも検討している。規制の射程は「利用年齢」から「設計思想」へと広がりつつある。
年齢確認AIは大人のデータも取る
「子ども向け規制」という言葉は穏やかに聞こえるが、実装の現場では別の問題が起きている。年齢を確認するには、全ユーザーのデータを取得するしかない。
米国では州の約半数が年齢確認法を成立させるか推進している。Discordは2026年2月、年齢確認のグローバル展開を発表した。顔分析を端末上で処理しデータは即時削除する設計だったが、ユーザーの反発を受けて今年後半まで開始を延期している。同社CTOのスタニスラフ・ヴィシネフスキーは「物議を醸す可能性がある」と2月24日のブログで自ら認めた。CNBC
問題はDiscordだけではない。成人向けコンテンツや金融サービスの一部は、政府発行IDのスキャンとライブ画像の照合を要求する。年齢確認ベンダーのSocureは、軽量な年齢推定では詳細情報をほぼ保存しないと説明する一方、本格的な本人確認では成人の確認データをプライバシーポリシーに従い最大3年間保持し得ると述べた。
実際にデータ侵害も起きている。Discordは今年中に、第三者サービスへの侵害を通じて約70,000人分のID画像が公開されたことを開示した。「削除される」と説明されていたデータが、別ルートで漏れた。
米連邦取引委員会(FTC)は「企業は収集情報の使用を制限する必要がある」とCNBCに述べた。バージニア州は年齢確認データを年齢判定以外に使うことを禁じる法律を設けたが、連邦裁判所が少なくとも一時的に執行を差し止めた状態だ。規制の枠組みが整う前に技術が先行している。
Discordは、各国の国内法で特定の手法が要求される国を除き、90%超のユーザーは追加の年齢確認なしに利用できると説明している。ただし、その「10%未満」に誰が含まれるかは利用するサービスと居住国によって変わる。
YouTubeのディープフェイク検出拡大が示す次の戦線
年齢確認と並行して、もう一つの技術的な動きが進んでいる。YouTubeは、AI生成のディープフェイクを検出する「肖像検出(likeness detection)」技術を、政府関係者・政治候補者・ジャーナリストを含むパイロット参加者に拡大すると発表した。TechCrunch
この技術はもともと、YouTube Partner Programの約400万人のクリエイター向けに昨年公開されたものだ。AIツールで作られた「なりすまし映像」を検出し、著作権保護素材を検知するContent IDと似た仕組みで動く。
パイロット参加者は自撮りと政府発行IDをアップロードして本人確認を行い、検出されたマッチを確認したうえで任意で削除を要請できる。削除要請があった場合、YouTubeはパロディや政治的批評に該当するかを既存のプライバシーポリシーに基づいて評価する。
YouTubeは最初のパイロット参加者の具体名を明かしておらず、これまでの削除量は「非常に少ない」と述べるにとどめた。AI動画には「AI生成」ラベルが付くが、表示位置は動画の説明欄だったり、センシティブなトピックでは動画前面に出たりと一貫していない。
YouTubeは米議会でのNO FAKES Act成立を支持しており、本人の同意なく声や外見をAIで再現することを連邦レベルで規制する方向に動いている。この流れが進めば、企業の広報動画や採用コンテンツ、社内研修資料まで、「本人が作ったか」の証明を求められる場面が増えてくる可能性がある。
子ども規制が大人の働き方を変える三つの経路

本人確認の標準化が進む
SNSの年齢確認義務化は、「IDを出してログインする」という行為を特別なものから日常的なものへ変える。金融や医療ではすでに本人確認が前提だが、同じ基準がSNSやコミュニケーションツールに適用されれば、業務ツールとして使われるDiscordやSlack類似サービスの導入判断にも影響が出る。情報セキュリティ担当者は、ベンダー選定の段階で年齢確認データの保持期間と管理方針を確認する必要が出てくる。
コンテンツの「出所証明」が求められる
YouTubeの肖像検出拡大は、AI生成コンテンツに「誰が作ったか」の証明を求める動きと連動している。マーケティング動画、採用広報、社外向け解説コンテンツをAIで制作している企業は、出所の透明性を示す仕組みを今から整えておく必要がある。ラベル表示の位置が一貫しないという現状の問題は、むしろ企業側が自主的に開示する余地を示している。
プラットフォーム選択の基準が変わる
スペインは、プラットフォーム上のヘイトスピーチについてSNS幹部を個人的に責任追及する法律も検討している。企業がどのプラットフォームで公式アカウントを運営するかは、そのプラットフォームの法的リスクとセットで判断しなければならなくなる。
「企業は収集情報の使用を制限する必要がある」(米連邦取引委員会スポークスマン、CNBCへの声明)。年齢確認を委託するベンダーのデータポリシーは、今後の契約審査の必須チェック項目になる。
まとめ
子どものSNS規制は、年齢確認AIの普及、ディープフェイク対策の制度化、プラットフォームの法的責任強化という三つの変化を同時に動かしている。いずれも「子ども向け」という枠を超えて、大人のデジタル行動と企業の情報管理に直接影響する。当面の実務上の優先事項は二つだ。自社が使う業務ツールとコンテンツ制作フローを棚卸しし、年齢確認データの扱いを確認すること。そしてAI生成物の開示方針を社内で明文化しておくこと。規制の整備を待つより、この二点を先に押さえておくほうが現実的な備えになる。