Nestが黙った理由

──COPPAが変えた家庭内AIの設計

前編では、Nest系サービスの縮小を法的再設計の観点から考察した。
今回はその中でも特に重要な要素、「子どもを認識できること」自体が抱えるリスクに焦点を当てる。

COPPAの壁:「識別できること」自体がNG

COPPA(児童オンラインプライバシー保護法)は13歳未満の個人情報をオンラインで収集することを禁止している。
ここで重要なのは、“収集”の定義に「識別可能な特性の判別」が含まれている点だ。

つまり、デバイスが「これは子どもの声だ」と判定した瞬間に、AIは“年齢を識別した”ことになる。たとえ保存していなくても、分類のプロセスが存在する限り、それはデータ処理として法的に扱われる可能性がある。

家庭内AIの構造的リスク

Nestやアシスタントは「家庭」という最もプライベートな空間で動作する。その音声データがクラウドに送信される構造では、家族構成・生活パターン・子どもの発話などが無意識に収集されうる。

こうしたデータはGDPRでもCCPAでも高リスク情報に分類される。結果として、Googleは“安全な道”──つまり、機能を減らしてしまうほうを選んだと考えられる。

過去の事例:YouTubeとCOPPA制裁

2019年、YouTubeはCOPPA違反で約1億7,000万ドル(約180億円)の制裁金を支払った。FTCは「子どもであると認識できる状態でデータを利用すること」を明確に違法と判断した。これ以降、家庭内データや音声認識はより慎重な扱いを求められるようになった。

「子どもを守るためにAIが黙る」

AIが子どもを認識できる時代は、同時に「認識してはいけない」時代でもある。Nest系の縮小は、その矛盾に正面から対応するための“沈黙”だったのかもしれない。

つまり、これは撤退ではなく、倫理的再構築のための一時停止だ。

あとがき

本稿は前編に続き、AIを共同編集者として用いましたが、内容と判断は私の意志に基づいています。