キウイブラザーズ、話題の24時間AR配信はいかにして生まれたか 制作スタッフに聞く“クリエイティブの裏側”

 公開から1週間で104万アクセスを突破した、キウイブラザーズの“ヘルシーな生活”に密着できる世界初の24時間ARライブが、いま大きな話題を集めている。新型コロナウイルス第7波で高まるフルーツ需要に応えるべく、ゼスプリ インターナショナル ジャパン株式会社は、ARライブ配信で楽しく健康について考える企画を生み出したというわけだ。

 そこで今回は、24時間×ARという特殊な企画が誕生した経緯や、キウイブラザーズについての思い、細部までこだわっているクリエイティブの裏側や、ライブ配信をする上で意識していることなどを、株式会社電通の北田有一氏(Creative Director)と諸星智也氏(Creative Technologist / Digital Experience Designer)、AbstractEngineの石井達哉氏に聞いた。

商品が変わらないからこそ、人々の生活に溶け込むように

ーーまずは、この企画を立ち上げた経緯を教えてください。

北田有一(以下、北田):“キウイブラザーズで新しいことをしよう”という話から、始まりました。もともとは、テレビCMや広告など、伝統的なメディアを通したアプローチをすることが多かったんです。でも、キウイフルーツって、商品が変わらないんですよね。たとえば、スマートフォンなんかは毎年新しい機種が出るじゃないですか?

ーーたしかにそうですね。

北田:なので、新しいものを打ち出していかなければ、古いものとして捉えられてしまうという危機感があって。

株式会社電通の北田有一氏(Creative Director)

ーーそのなかで、24時間のライブ配信という表現に注目した理由は?

北田:新型コロナウイルスが流行したことで、メタバースやライブ配信などデジタル上での交流が必要不可欠になりましたよね。直接会うことができなくても、人と触れ合うことができる。そこに、引力があるなと感じたんです。もし、キウイブラザーズがなにかデジタルで人と交流するとしたら、24時間でやりたい。それも、1ヶ月以上続けたいと思っていました。

ーーそれは、どうして?

北田:キウイって、「今週発売です!」というわけではないじゃないですか。だから「朝も見たけど、夜見たらどうなっているんだろう?」とか。人々の生活に溶け込むようにしたかったんです。いつ行っても、コミュニケーションが取れるような。

ーーそこから、24時間×ARという特殊な企画が生まれたのですね。

諸星智也(以下、諸星):CMの世界観を崩さずに、ライブ配信をするには? と考えた結果、ジオラマとARを組み合わせるのがベストだろうという結論に至りました。フルCGでやる選択肢もありましたが、やっぱりクラフト感を追い求めたかったんですよね。リアルで作ったような手触りのある感じの。

ーーたしかに。だから、温かみを感じるのかもしれません。

北田:実は、テレビCMもコマ撮りで撮影しているんです。

ーーそうだったのですか!

北田:コマ撮りはアートディレクターの関戸のアイデアだったのですが、生鮮食品なのに、全部をCGにしてしまうと、作り物感が出てしまうだろうと心配しました。自然の食品なのに、美味しそうに見えなくなるのではないかと。

ーーなるほど。

北田:なので、自然で身近なものに見えるように、どこかでアナログ感を出したいと考えていました。それが、温かみにつながっているんだと思います。

ーーそうなると、フルCGよりもかなり縛りが多かったのでは? とくに苦戦されたことはありますか?

諸星:そもそも、どういう体験にするべきなのか? というのが、最初に出てきた課題でした。いきなり技術の壁にぶち当たったというよりは、まだ誰もやったことがない企画へのアプローチがむずかしかったです。ユーザーが、どのような感じで参加してくれるのか? とか。何かを参考にしようにも、するものがないので……。たとえば、ずっと同じアングルでキウイブラザーズを見ているだけだと、水槽のなかの魚を見ているみたいになってしまう。それなら、アクションごとにいろいろなアングルで世界を見られるように、視点を変えてみようか? など。一つひとつ体験と技術の実現可能性の塩梅を検証しながら、進めていった感じです。

株式会社電通の諸星智也氏(Creative Technologist / Digital Experience Designer)

ーーエンジニアの石井さんは、いかがでしたか?

石井逹哉(以下、石井):キャンペーンサイトのコメントから採用されるアクション数は、数十パターン近くあるんです。それらの組み込みや、AI制御システムの作成。とにかく、パターンが多くて大変でした。あとは、ミニチュア内でより見栄えのいいアングルを探すために、ロボットアームの調整をしたり、アングルごとのライティングを調整するのも苦戦しましたね。24時間&1カ月という長期にわたるライブ配信は、経験がなかったので、本番直前にPCが壊れたりしないかな……と、しびれる瞬間も多々ありました。

ーーハード面においても、24時間&1カ月の長期間のライブ配信というのは、かなり工夫を凝らされたのではないでしょうか。

石井:長時間の配信は、システムやPCのエラーが起きないことに加えて、モーションキャプチャー、トラッキングの精度が求められます。トラスにクランプで装着しているモーションキャプチャーカメラは、自身の自重などでずれてきてしまうため、週に一度キャリブレーションを行っています。

ーー小さなジオラマだからこその、むずかしさも?

石井:ありますね。ミリ単位の精度を維持しないと、ふだんの合成よりも違和感が出てしまうので。

ーーCGまわりの制作やシステム制御には、どのようなソフトを使用されたのでしょうか。

石井:今回のプロジェクトは難度が高いので、合成の精度やクオリティーを上げるために、多くのソフトを使用しました。まず、キャラクターの合成に使ったのは、『Unreal Engine』というゲーム制作にも使用されるソフトウェアです。現実空間とCG空間の位置合わせ、カメラ映像の取得・ロボットアームの制御などに使用したソフトは、『OpenFrameworks』。ロボットアーム先端に取り付けたマーカーのトラッキングには、『OptiTrack』という光学式モーションキャプチャカメラ。その他、時間帯ごとに変化するDMX照明のコントロールやジオラマ内のソファーやベットの仕掛け制御などに『MaxMsp』。BGMとシンクしながら各アクションSEを再生するのには、『Ableton Live』を使用しました。

関連記事