異次元の性能を持つAIボイスチェンジャーを前に、ディープフェイク時代に備える

技術に罪はなく、使い方の問題 なればこそ考えておきたい“規制の方向性”

 ディープフェイクによって生じる問題は、一部の個人だけに影響を及ぼすものではない。流布した情報の真偽二見分けがつかなくなってしまうような状況というのは、極端なことをいえば、「情報を共有し、認識する」という社会の基本的な活動を歪める可能性を持っており、これらの技術を取り締まるための法律や規範の設定は、個々人の権利保護だけでなく、社会全体の秩序を維持するためにも必要なのではないかと思う。

 ここで難しいのは、ディープフェイクそのものが悪であるわけではなく、その使われ方次第で問題となる点だ。たとえば、ある人物の顔を別の人物の体に合成した映像を作り出す技術は、映画やゲームなどのエンターテインメントの一環として利用されることもある。しかし、同じ技術を使って他人のプライバシーを侵害したり、偽のニュース映像を作り出したりすると、それは悪用とみなされるべきだ。

 そのため、法律による規制を考える場合、ディープフェイク技術そのものを規制するのではなく、その悪用を規制する形になるだろう。具体的には、「他人の顔を無断で合成する行為」や「偽の情報を流布する目的で映像を作成・公開する行為」などを禁止する形だ。

 テクノロジーの悪用を規制した過去の事例としては、2010年代にはいわゆる「リベンジポルノ」が世界中で議論の対象になった。問題が広く認識されたことで多くの国や地域で法律が制定され、これらの行為を犯罪として取り締まるようになっている。日本でも2014年に「私事性的画像記録の提供等による被害の防止に関する法律(リベンジポルノ規制法)」が制定され、このような行為を禁止した。

 また、EUでは「GDPR(General Data Protection Regulation:EU一般データ保護規則)」が2018年に施行され、個人データの保護に対する新たな規制が設けられた。これはデジタルテクノロジーの進化とともに個人データが広範に収集・利用されるようになったことへの対応で、データの収集・利用・保管に関する法律を強化したものだ。

 新たな技術を法律で制限することは業界を萎縮させることにもつながるため、慎重な議論が行われることを望みたい。しかし、こうした技術の悪用に迅速な対応が必要なのも事実だろう。日本国内での法整備はまだ先だろうが、ひとまずはこうした技術に誰もがアクセスできる状況なのだという事実をしっかりと知っておくことが大事だろう。

〈参考文献〉
「私事性的画像記録の提供等による被害の防止に関する法律」
https://elaws.e-gov.go.jp/document?lawid=426AC1000000126_20221001_503AC0000000027
「アメリカ選挙法におけるディープフェイク規制の動向」
https://www.spf.org/iina/articles/harumichi_yuasa_01.html
「欧州AI政策について」
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/005_02_01.pdf
「多額詐欺、実在の“友人”はAI 北國新聞」
https://www.hokkoku.co.jp/articles/-/1078482

関連記事