米ポートランドで“顔認識システム”の導入が禁止にーースマートシティの今後はどうなる?

米ポートランドで“顔認識システム”の導入が禁止にーースマートシティの今後はどうなる?

 2016年に開催されたアメリカ政府におけるスマートシティ計画コンテストにエントリーしたポートランドは先月、アメリカ国内で最も厳しいとされる顔認識システム禁止の法案を可決した。

 始まりは、スマートシティのファイナリストになったポートランド市のデータがテック企業に利用されることを恐れた市民たちの声からだった。ポートランド市の団体Smart City PDXがマイノリティやBIPOCなど、弱い立場にある市民たちのプライバシーと安全を守るために新しい顔認識システムに関する原案を市に提出したことだった

 この法案は民間と公共の両方に適用されるものであり、政府の顔認識システムの利用を禁止するものである。既にアメリカ国内では10の街が顔認識システムに規制をかけているが、ここまで厳しいものはアメリカ初となる。

顔認識システムの政府利用

 近年、民間が提供する顔認識システムの政府の監視活動が目立つ。アメリカ国内では既に600ほどの法執行機関で顔認識システムが利用されているという。この中でもプライバシーや人権問題となっているのがオーストラリア人のHoan Ton-Thatが創設したClearview AIが挙げられる。従来の警察のデータベース内に登録された写真との照合ではなく、オンライン上のあらゆる画像データを分析することによって個人を特定するシステムだ。これは何らかに理由で法的機関に登録されていない人物の特定に役に立つほか、オンライン上から住所や足跡を細かく追跡することを可能にする。

組み込まれた“偏見”

 これらのテクノロジーにおける一番の問題は、アルゴリズム自体に内在する偏見やバイアスだ。ビッグデータのマシンラーニングは膨大なデータ分析から社会に偏在する傾向を学び、システム化し、答えを導き出すというプロセスを持つ。この過程で社会的構造に組み込まれた差別指向がAIの中に内蔵され、それを元に顔認識のアラートや犯罪予測の答えを出す。MITのメディアラボ内でAIによるバイアスの研究で注目を集めるJoy Buolamwiniによるとアフリカ系アメリカ人女性は顔認識システムによる誤認識の確率が一番高いという結果が出ている。(論文url:http://gendershades.org/http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf

 また、アメリカ政府の研究によるとこれらの大手の顔認識システムのバイアスによる誤認識は白人に比べアフリカ系アメリカ人やその他の有色人種に多発する傾向にあるという結果が発表されている。(論文:https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf、参照:https://www.nytimes.com/2019/12/19/technology/facial-recognition-bias.html

 実際にアメリカでは、いくつもの顔認識システムから誤認逮捕が相次いでいる。この傾向の一つの原因としてあげられるのがテクノロジーの過信だ。コンピューターが理論とシステムを駆使してたどり着いた結論への信頼を元に多くの法的機関はこれらのAI技術を捜査に適用している傾向にあるとニューヨークタイムズのテックライターShira Ovideは話している(参照:https://www.nytimes.com/2020/06/25/technology/facial-recognition-software-dangers.html?searchResultPosition=12)。しかし、ソフトウェアには適合率に関して100パーセントであるとは謳っていない。

インタビュー

もっとみる

Pick Up!

「コラム」の最新記事

もっとみる