スマートグラスと画像AIが変えるリスク:企業が今すぐすべき対策

ざっくりまとめ
- MetaのRay-Banスマートグラスで撮影されたトイレ映像を、Metaの委託作業者が業務として閲覧していたことが報告され、「事実を隠蔽している」と批判を受けている
- Googleは新画像AIモデル「Nano Banana 2」をGeminiに即日投入し、プロ品質の画像を高速生成できる環境が一般ユーザーに開放された
- 撮影と生成、両面のリスクが同時に拡大している今、企業と個人それぞれに求められる対応の判断軸を整理する
※ 本記事は公開情報をもとに執筆しています。各サービスの仕様・ポリシーは随時更新される可能性があります。
トイレ映像が"審査"された——Ray-Ban Metaが露わにしたもの
2026年3月、Ars Technicaが報じた内容は衝撃的だった。Ray-Ban Metaスマートグラスで撮影されたトイレ内の映像を、Metaの委託作業者が業務として閲覧していたというのだ。Metaは「事実を隠蔽している」と批判されており、ユーザーへの説明が十分だったかどうかが問われている。
問題の核心は「誰が撮ったか」ではなく、「撮られた人が知る術を持たない」という構造にある。通常のスマートフォンなら、画面を向けられれば気づく。だがスマートグラスは正面を向いているだけで撮影できる。被写体は自分が記録されていることすら分からない。
職場に置き換えると、リスクはさらに具体化する。会議室での議論、ホワイトボードに書かれた戦略、同僚の顔——これらが本人の同意なく記録され、クラウドに送られ、第三者の目に触れる可能性がある。「持ち込み禁止」のルールを作ろうにも、グラス型デバイスは一見して判別しにくい。
Googleの新モデルが「生成」側のリスクを底上げした
撮影リスクと並行して、生成側でも動きがあった。
Googleは2026年2月、新しい画像生成AIモデル「Nano Banana 2」をGeminiに即日提供開始した。報道によれば、従来モデルを即座に置き換え、プロ品質の画像を瞬時に生成できるとされる。
速度の向上が意味するのは、高品質な偽画像の生成コストが時間的にも技術的にも限りなくゼロに近づいたということだ。スマートグラスで撮った同僚の顔写真と高精度な画像AIを組み合わせれば、本人が実際にはいなかった場所にいるように見える画像を数秒で作れてしまう。ハラスメントの証拠偽造、なりすまし、風評被害——悪意ある用途への応用は、技術の精度向上とともに現実味を増している。
撮る技術と作る技術が同時に進化している。どちらか一方なら対処できた問題が、組み合わさることで質的に変わる。これが今この瞬間の状況だ。
企業が今すぐ考えるべき「見る・撮る」のガバナンス
デバイス持ち込みポリシーの再定義
多くの企業は「スマートフォン持ち込み可」「録音・録画禁止」という既存ルールで運用している。だがスマートグラスはこの分類に収まらない。外見上は眼鏡であり、録画機能の有無を外部から確認できない。
ルールを「デバイス種別」で定義するのではなく、「撮影・記録機能を持つウェアラブル機器全般」という機能ベースで再定義する必要がある。法務・人事・情報セキュリティの三部門が連携しなければ、実効性は生まれない。
同意の取得を「撮影前」に組み込む
スマートグラスのメーカーはプライバシーポリシーへの同意を求めるが、それはデバイスの購入者に対してだ。撮影される側——つまり被写体——への同意取得は、現状ほぼ存在しない。
職場での現実的な対策は、スマートグラス着用者が入室できるエリアを明示し、機密性の高い会議では着用者に録画オフを求めることだ。技術的な制御が難しい以上、運用ルールと物理的な環境設計で補うしかない。
画像生成AIの業務利用ガイドラインを先手で作る
「社員の顔写真を画像AIに入力してはならない」——こうした明示的な禁止事項を持つ企業は、まだ少数派だろう。だが、Nano Banana 2のような高精度モデルが無料・即時で使える環境になった今、ガイドライン整備を後回しにするコストは急速に上がっている。
まず着手できるのは、社内で取り扱う人物写真・映像の外部AIサービスへの入力禁止と、生成画像を社外に出す際の確認フローの明文化だ。
個人として「撮られている前提」で動く時代
企業の対応を待つだけでは足りない。個人の行動レベルでも、認識の更新が求められる。
公共の場でスマートグラスを装着した人物がいれば、その人は撮影しているかもしれない。飲食店、電車、会議室——「カメラを向けられていない」という従来の安心感は、もう機能しない。これは過剰な被害妄想ではなく、今起きている事実を踏まえた合理的な判断だ。
MetaのRay-Banスマートグラス問題で浮かび上がったのは、プライバシーの侵害が「悪意ある個人の行為」だけから生まれるのではないという事実だ。善意のユーザーが普通に使っているだけで、その映像が知らぬ間に第三者の目に触れる——そういう構造が、すでにサービスの仕様として組み込まれている可能性がある。
自分の顔が映り込んだ映像がどこに送られ、誰が見ているか——それを問う権利が、被写体にはまだ十分に保障されていない。日本では個人情報保護法の改正議論が続いているが、スマートグラスや画像AIを念頭に置いた規制の具体化はこれからだ。
個人としてできる現実的な一手は、自分が撮影される可能性を「ゼロではない前提」で行動を選択することだ。機密性の高い会話をスマートグラス装着者の前でしない、センシティブな場所での行動を見直す——地味だが、今すぐ実行できる。
まとめ
スマートグラスによる無自覚な撮影と、高精度画像AIによる生成——この二つが重なった時代のプライバシーリスクは、個人の注意だけで吸収できる水準を超えつつある。企業は「機能ベースのデバイスポリシー」と「画像AI利用ガイドライン」の整備を、今期中の課題として位置づけるべきだ。次に注目すべきは、日本の個人情報保護委員会がスマートグラスや生成AIをどう規制対象に含めるかの動向と、各メーカーのプライバシーポリシー改定の内容だ。