YouTube、生成AIを利用したリアルな動画は「ラベルによる明示を義務化」 動画生成AI流行前に先手を打つ形に

 YouTubeは3月18日、コンテンツをアップロードする際に利用する際、リアル(現実的)なコンテンツが生成AIで作成されていた場合、動画へのラベル付けを義務付けると発表した。

 YouTubeによれば、リアルなコンテンツとは「視聴者が実際の人物、出来事、場所と“容易に間違える”可能性があるもの」だと定義している。

 たとえばある人物の顔を別の人物に置き換えたり、人の声を合成してビデオのナレーションを作成するものが、ラベル付けの対象となる。本物の建物が火災になったかのように見せたり、現実の街並みを変更したもの、現実の町に向かって移動する竜巻などの架空のイベントも、明示する必要がある。

YouTubeブログより

 一方で「明らかに非現実的なコンテンツ」やアニメーション、特殊効果を含むコンテンツ、またはプロット作成など制作支援に生成AIを使用したコンテンツについては、対象外としている。

 もし該当するコンテンツにクリエイターがラベルを貼っていない場合、YouTubeが動画にラベルを表示する可能性がある。クリエイターは新しいルールに慣れるまでの猶予が与えられるとしながらも、何度もポリシーに違反すれば、ペナルティが課せられる可能性が高いともしている。

YouTubeブログより

 YouTubeは今回の変更について、「視聴者は見ているコンテンツが改変されたものなのか、合成されたものなのかについて、より透明性を求めるようになっている」と説明している。なによりも、『Sora』など動画生成AIの進化がめざましい昨今、もっとも大きな影響を受けるのは世界最大の動画プラットフォームであるYouTubeだ。それだけに、同社にとってフェイクニュース対策は喫緊の課題だろう。

 どのコンテンツが現実的なのか、あるいは非現実的なのか。ユーザー(=受け手側)によって左右される部分もあるため、線引きについては今後議論の対象となりそうだが、悪意のある生成AIコンテンツからユーザーを守る動きの第一歩と言えそうだ。

〈Source〉
https://blog.youtube/news-and-events/disclosing-ai-generated-content/
https://www.engadget.com/youtube-lays-out-new-rules-for-realistic-ai-generated-videos-154248008.html

関連記事