“AI闇市”も誕生 テイラー・スウィフトのフェイク画像事件を機に考える「現状と対策」
技術的対策を打ち出す大手テック企業
AI生成フェイクコンテンツに対して、大手テック企業は技術的な対抗策を発表している。たとえばOpenAIは2024年2月7日、ChatGPTあるいはOpenAI APIによって生成された画像に、「C2PA」を付与することをXにて発表した。
「C2PA(Coalition for Content Provenance and Authenticity:コンテンツの証明性と真正性のための連合)」とは、デジタルメディアの出処と履歴を証明するシステムで、デジタルメディアに付与するメタデータとそれを参照するツールなどから構成されている。こうしたツールを実装しているウェブサイト「Content Credentials Verify」(※6)を活用すれば、生成手段と生成日などが確認できる(本稿のトップ画像はC2PAの確認画面だ)。
Images generated in ChatGPT and our API now include metadata using C2PA specifications.
This allows anyone (including social platforms and content distributors) to see that an image was generated by our products. https://t.co/kRv3mFnQFI pic.twitter.com/ftHqECS8SB
— OpenAI (@OpenAI) February 6, 2024
Google傘下のDeepMindは、Googleが開発した画像生成AIのImageFXに電子透かしを付与するシステム「SynthID」を開発した(※7)。このAIで生成された画像には人間には視認できない電子透かしデータが含まれており、そのデータは読み取りツールを使うことで確認できる。同システムは、音楽生成AIのLyriaにも対応している(※8)。具体的には、Lyriaで生成した音響データをスペクトラム画像として視覚化した後、人間が識別できないような波形データを付与する。読み取りツールを使えば、その波形を特定できるのだ。
Metaも、電子透かしシステム「Stable Signature」を発表している(※9)。このシステムはSynthIDと同様に視認不可の電子透かしを付与するのだが、画像を生成したユーザーを特定する機能も有している。この機能は、ユーザーごとにカスタマイズされた画像生成AIを配布したうえで、そのAIが画像生成の度にユーザーを特定できる識別コードを付与するという仕組みになっている。
YouTubeは2024年3月19日、AIによって生成または改変されたメディアで作成されたコンテンツであることを視聴者に開示するラベルを付与するツールの提供を発表した(※10)。このラベルは、実在する建物に火災が発生しているように改変するような「影響力の大きいコンテンツ」を作成する際に付与することを義務化するもので、一定の周知期間を猶予として設けた上で、正式に運用していくとされている。
YouTubeはあきらかに生成物であることがわかるようなコンテンツ(たとえばファンタジーの世界を表現した創作作品など)についてはラベルを表示する義務が無いとしている。一方で、ラベル付与が必要にもかかわらず一貫してラベルを付与しないクリエイターに対しては、何らかの措置を講じることを検討している、とも発表ブログ記事には書かれている。
民主主義をもおびやかすフェイクコンテンツとの戦い
2024年にはアメリカ大統領選挙をはじめとして、世界各地で重要な選挙が実施される。こうした国政選挙にフェイク画像が悪用された場合、民主主義そのものが脅かされてしまう懸念もある。こうした事情により、フェイク画像に対する政治的取り組みも進んでいる。
日本の総務省は、生成AIやメタバースの台頭によりデジタル空間が拡大・深化する現状をうけて、2023年10月末に「デジタル空間における情報流通の健全性確保の在り方に関する検討会」を立ち上げた。同検討会の第14回(※11)と第15回(※12)では、大手テック企業の偽・誤情報に対する取り組みが発表された。発表した企業としてGoogle、Meta、TikTok、Microsoft、そしてXが名を連ね、前出の電子透かしや選挙関連コンテンツに対するポリシーなどについて発表した。
OpenAIは2024年1月15日、同年実施のアメリカ大統領選挙に関する取組を発表した(※13)。その内容とは、同社が今年1月に立ち上げたアプリストアである「GPT Store」において、ユーザーに何らかの投票行動を行うように説得するようなAIアプリの開発を禁止する、というものであった。さらにC2PAのようなメタデータがなくても、同社開発の画像生成AIであるDALL-Eで生成した画像であることを特定できる技術を開発中であることが明らかになった。
2024年2月16日から18日にかけてドイツ・ミュンヘンで開催された第60回ミュンヘン安全保障会議では、GoogleやOpenAIを含む大手テック企業20社が「2024年選挙におけるAIの欺瞞的利用に対抗する技術協定」を締結した(※14)。この協定は、「選挙におけるAIの悪用に対する技術的対策の共有」をはじめとする8項目について、締結企業間の協調を約束したものである。
以上のように、恣意的あるいは悪意のあるAI生成フェイクコンテンツは世界共通の問題であるので、その対策も世界全体で取り組む方向に向かっている。しかしながら、こうした取り組みが十分に効果を発揮するようになるまでには、しばしの時間がかかるだろう。それゆえ、技術的対策の推進と並行して、ユーザーひとりひとりが有害あるいは偽のコンテンツに対して適切な行動をとれるようにするAIリテラシーの育成が重要となるだろう。
(※1)CBS「Taylor Swift deepfakes spread online, sparking outrage」
(※2)The White House「Press Briefing by Press Secretary Karine Jean-Pierre, NSC Coordinator for Strategic Communications John Kirby, and National Climate Advisor Ali Zaidi」
(※3)CBS「Fake and graphic images of Taylor Swift started with AI challenge」
(※4)オンラインELLE日本版「テイラー・スウィフトの猥褻画像だけじゃない! セレブとAI技術の行方【ピーチズのOM(F)G!】」
(※5)Graphika「A Revealing Picture」
(※6)Content Credentials Verify
(※7)Google DeepMind「Identifying AI-generated images with SynthID」
(※8)Google DeepMind「Transforming the future of music creation」
(※9)Meta「Stable Signature: A new method for watermarking images created by open source generative AI」
(※10)YouTube「改変または合成されたコンテンツをクリエイターが開示するための仕組み」
(※11)デジタル空間における情報流通の健全性確保の在り方に関する検討会「第14回配布資料」
(※12)デジタル空間における情報流通の健全性確保の在り方に関する検討会「第15回配布資料」
(※13)OpenAI「How OpenAI is approaching 2024 worldwide elections」
(※14)MSC「A Tech Accord to Combat Deceptive Use of AI in 2024 Elections」
“存在しないミス東大”の動画が100万回再生 ディープフェイク量産による懸念点とは
先日、「ミス東大2024なぎさ」というAIで作成されたYouTubeアカウントが話題となった。ディープフェイクとAIインフルエン…