Appleは2019年からiCloudメールをスキャンしていた。広がる児童虐待対策システムへの懸念

 今年後半のiOS 15のアップデートに合わせてアメリカで導入されるAppleが開発した児童虐待対策システムをめぐって、同国では懸念が広がっている。こうしたなか、同社が以前からユーザのプライバシーを脅かしかねない処理をしていたことが発覚した。

iCloud フォトやバックアップはスキャンしていない

 Apple製品専門メディア『9to5Mac』は23日、Appleが2019年よりiCloudメールをスキャンしていたことを暴露した記事を公開した。

 曝露のきっかけになったのは、Appleの不正防止部門のトップであるEric Friedman氏が2020年に発言した内容である。同氏は「われわれ(Apple)は児童ポルノを配布するもっとも大きいプラットフォームになってしまった」と発言したのだ。こうした発言が可能となるには、一部のApple製品ユーザが児童ポルノを配布していたことをAppleが把握している必要がある。つまり、2020年時点ですでにユーザに対して何らかのチェックを行っていないと辻褄が合わないのだ。

 以上の件に関して9to5MacはAppleに問い合わせたところ、同社は2019年からiCloudメールの添付ファイルをスキャンしていたことを認めた。スキャンの目的は、児童虐待に関連する画像の検出だ。その一方で、iCloudフォトやiCloudのバックアップのスキャンは否定した。

 9to5Macの記事は、Friedman氏の発言の真意を次のように考察している。2020年時点でGoogleやFacebookといった競合他社はユーザがクラウドサーバにアップした画像をスキャンしていた一方で、Appleはそうしていなかった。つまり、Appleのほうが児童虐待関連コンテンツの取り締まりが緩かったのだ。それゆえ、競合他社と比較して児童虐待関連コンテンツが増えてしまったことを同氏は言いたかった、と考えられる。

 ちなみに、今年後半に導入予定の児童虐待対策システムは、iCloudサーバ上ではなくユーザが所持するiPhone端末で実行される。また、スキャンは画像をiCloudにアップする時点で実行されるので、iCloudを使用しなければ同システムは無効化される。

実際に児童虐待対策システムを試作したところ...…

 Appleの児童虐待対策システムをめぐっては、多くのセキュリティ専門家が懸念を抱いている。スマホ専門メディア『phoneArena』の23日付の記事によれば、アメリカ・プリンストン大学でセキュリティを研究するAnunay Kulshrestha氏とJonathan Mayer氏は、Appleが公開している技術情報にもとづいて実際に児童虐待対策システムと同等のシステムを構築してみた。

 試作システムを調査した結果、Appleの児童虐待対策システムは悪用される危険性が否定できない、という結論に達した。同システムの悪用とは、本来であれば児童虐待関連コンテンツの検出に用いる代わりに、政府が画像として保存して欲しくない人物や場所が写った画像を検出するのに用いることを意味する。こうした悪用を利用すれば、政府による検閲や言論の統制が可能となる。

 Appleによると児童虐待対策システムが誤検知する可能性は「1兆分の1」であり、事実上ほぼあり得ない確率となっている。しかし、試作システムを調査した結果、誤検知は小さい確率ながらもあり得る事態と考えられるという結論にもいたった。

関連記事