SNSでの誹謗中傷と自殺者を減らすためにーーInstagramがAIを利用しアンチコメントを非表示に

 10月6日、アプリリリースから10周年を迎えたInstagramは、AIを利用してアンチコメントを自動的に非表示にする機能を追加した。インターネット上での誹謗中傷が過激化する中、有効な抑制策となるのだろうか。

ナッジ機能の追加で、ネガティブコメントの有意な減少を確認

 Instagramによれば、この新機能は、同社のコミュニティガイドラインに違反するすべてのコメントを自動的に非表示にするという。不適切な投稿と見なされるか否かは、過去に報告された違反コメントを元にして判断されるそう。非表示となった投稿は削除されるわけではなく、「非表示のコメントを表示」をタップすれば表示することができる。この機能は、現在ベータモードで運用中だ。

 加えて同社は、不適切なコメントを投稿しようとしているユーザーに警告を与える“ナッジ”機能も拡張している。以前は、攻撃的な投稿を繰り替えすユーザーに、「不快な投稿と見なされる可能性がある」と注意を促すのみだった。しかし今回の機能拡張により、コメントを修正しなければ、「この投稿は非表示になる可能性がある」「アカウントが削除される可能性がある」と、より強い警告文となっている。

 同社は具体的な数字は明かしていないものの、以前のナッジ機能を追加して以来、ネガティブなコミュニケーションの有意な減少が見られたと述べている。今回の拡張で、さらなる効果が期待される。

 この新機能は、現在英語、ポルトガル語、スペイン語、フランス語、ロシア語、中国語、アラビア語(Androidのみ)ユーザーに向けてリリースされている。いずれは、他の言語にも拡大していく見込みだという。

 同様に、Twitterもアンチコメントに対する注意文を導入するテストを行っている。同社の5月の投稿によれば、「本当に投稿すべき内容か再度考えさせるため、攻撃的な言葉を使用している場合に、投稿を修正するオプションを提供する実験をiOSで行っている」という。続く8月の投稿では、「現在Android、iOS、ウェブでテスト中だ」と追記されている。各SNSが誹謗中傷への対策に乗り出しているようだ。

関連記事