AIは白人至上主義に準ずるものだったーーケンブリッジ大博士の発言から考える“AIを取り巻く人種差別問題”

AIは白人至上主義に準ずるもの?

 AIを取り巻く人種差別問題については、これまで何度も槍玉にあがってきた。AIによる差別的偏見に対する回避策として、SNS上で投稿された人種差別を助長するワードを拾い上げるという方法がとられている。グーグルは2016年、このよう仕組みで動作するヘイトスピーチ監視AIを発表したが、アルゴリズムが問題のない黒人英語を含む黒人の投稿をヘイトスピーチに振るい分けたことから、かえって人種差別を助長することとなった。

 豪ニュースサイト「news.com.au」によると、AIにおけるバイナスをめぐる問題を解消するには、データの取り扱い方法に関して批判的な目で捉えることと、企業のAI開発部門における雇用を見直すことの2点が重要である。ちなみに、テクノロジーの現場におけるスタッフの多様性の欠如については、以前「Forbes」でも指摘されている。女性やマイノリティーを積極的に受け入れることで、AIに潜むバイアスが解消されると同時に、女性やマイノリティーによる支持が得られ、売上増収にもつながり得る(参照URL:https://www.news.com.au/technology/innovation/diversity-needed-to-tackle-the-inherent-bias-in-artificial-intelligence/news-story/989a0231ca07d1c47648ac06570a8446)。

 人種差別がAIにより生み出されているとはいえ、自然言語処理的手法のみで全てが丸く収まるとは到底言えない。AIシステムの構築の現場においては、単に人種差別的な表現をリストアップするのではなく、特定の人種・民族、性別、性的嗜好などに偏りすぎないよう、適切な配分で人員を配置するなど、抜本的な見直しが必要なのかもしれない。

(画像=Pexelsより)

■大澤法子
翻訳者、ライター。AI、eスポーツ、シビックテックを中心に動向を追っている。

関連記事

インタビュー

もっとみる

Pick Up!

「コラム」の最新記事

もっとみる

blueprint book store

もっとみる