音楽史の転換点に? ソニーの「360 Reality Audio」が目指すのは原点の“ライブリスニング"

「360 Reality Audio」取材

 音楽ライブの配信が増えるなか、音楽ストリーミングで立体音響を実現するソニーによる臨場感豊かな立体的な音場を実現する体験「360 Reality Audio」が4月16日より国内に本格導入。Amazon Music HD、Deezer、nugs.netによる楽曲配信がスタートした。

 2019年のソニーによるプレス発表以来、海外先行で導入の始まっていた「360 Reality Audio」。ソニーのオブジェクトベースの360立体音響技術を活用し、360度全球の位置情報とともに音を収録することで、自宅でも臨場感あるリスニング体験を実現する技術だ。

360 Reality Audio × THE FIRST TAKE YOASOBI編:Special Movie 【ソニー公式】

 「360 Reality Audio」の特徴は、スマホを中心としたリスニングの手軽さにある。既にスピーカーでの配信はAmazon Music HDでスタートしていたが、4月16日よりスマホやWalkman®とヘッドホンによる国内サービスがDeezer、nugs.netで始まった。「360 Reality Audio」への対応は音楽配信事業社のアプリに組み込まれており、全てのメーカーのイヤホン・ヘッドホンで利用可能。さらにソニー360 Reality Audio認定ヘッドホン全37モデルを利用すると、専用アプリを使って耳の形をスマホカメラで撮影し、個人に最適化された音場も提供される。

 同時にソニーから「360 Reality Audio」コンテンツを再生できるスピーカーとして「SRS-RA5000」「SRS-RA3000」も発売。Amazonのスマートスピーカー「Echo Studio」と併せて、様々な対応モデルが用意されている。

 楽曲配信はソニーミュージック、ワーナーミュジックジャパン、ポニーキャニオンらが参加。大滝詠一や私立恵比寿中学、Doul、Little Glee Monster、鬼頭明里、森高千里とメジャーアーティストを含み、邦楽・洋楽を合わせた4000曲以上の視聴が可能。またYOASOBIの楽曲『夜に駆ける』の原作小説を、立体音響技術を使ってオーディオドラマ化といった新機軸のコンテンツも用意されている。

 身近になった音楽ライブ、音楽ストリーミング配信を、新たなステージに押し上げる新しい音楽体験として注目の「360 Reality Audio」。手掛けるソニー株式会社の岡崎真治氏、澤志聡彦氏、関英木氏にその技術と狙いを訊ねた。(折原一也)

−−まず、「360 Reality Audio」はソニーによる360立体音響技術を活用されたと説明されていますよね。この「360 Reality Audio」の音楽体験が登場した発端は、どこにあるのでしょうか。

岡崎真治(以下、岡崎):3Dサウンドの標準化の動きは業界団体で10年ほど前から進められていて、「MPEG-H 3Dオーディオ」という国際標準が定められました。これに対しソニー社内では、2017年の中期計画で、音質を追求する「ハイレゾ」や、音圧を再現する「EXTRA BASE」に次いで、音場を体験する技術を広めていこうという話が進んでおり、そのタイミングで、業界で標準化されてる「MPEG-H 3Dオーディオ」をベースに、音楽配信に最適なフォーマットとしてソニーの「360 Reality Audioミュージックフォーマット」が誕生したのです。

−−「360 Reality Audio」には、音楽リスニングの体験としてどんな特徴があるのでしょうか。

岡崎:これまでCDなどの音源は左右2chの音を録音するステレオがあって、過去70年以上使われ続けていることから、未だに我々はステレオを中心に音楽を体験しています。ステレオの前には、アナログ録音蓄音機の時代があり、さらにその前は音楽はライブリスニングで楽しむもので、それが本来の音楽体験だったのです。「360 Reality Audio」は、その場で360°全方向から音が降り注ぐ臨場感ある体験、ライブリスニングを目指すということを目標に置いています。

澤志聡彦(以下、澤志):アーティストさんとお話すると、”あ、そういえば元はスタジオという空間で演奏して、歌っていたんだ。録音で2chになっていたけど、元の空間に戻る感覚だよね”と仰っていただけるんですよね。

−−現在、ライブDVDなどでは5.1ch収録が行われているケースもあります。これら現行の技術と比べて「360 Reality Audio」はどう違うのでしょうか。

澤志:技術視点でいうと、5.1chやマルチチャンネルというのはチャンネルベースの音源、つまりどこにスピーカーが配置されているかという前提で音が作り込まれます。「360 Reality Audio」の音はオブジェクトベースといって、「空間のどこに音を置くか」という考え方であって、スピーカーの配置を限定しません。この点で技術的に大きな違いがあります。

関英木(以下、関):例えば5.1chであれば、スピーカーシステムの数は6本、または6つのスピーカーユニット構成が必要ですね。一方オブジェクトオーディオでは、製作時に13本のスピーカーを用いてコンテンツ制作をしていても、再生する側は、ワンボックススタイル。スピーカーユニットが3つの構成であっても良いのです。それも2.1chや3chという数え方ではなく3基のスピーカーユニットを用いたシステム、となります。つまり、モデルに求められる要求に応じてレイアウトを自由に設計することができるのです。

ーー2019年にソニーストア銀座で展示イベント「『Hikaru Utada Laughter in the Dark Tour 2018』Sony Store Days」を開催された際には13本のスピーカーで構成されていましたね。

関:はい。でも、制作の際と同じ13本の構成であっても、”ここのオブジェクトの音が、そのままここに来ているよ”ということではないんです。オブジェクトの音は、スピーカーに割り当てる際にレンダリング処理をして演算をかけています。ここで非常に複雑な計算をすることで、単純に後ろに音が回り込むだけではない、包み込まれる音の空間が作れるんですよね。

ーー発表された「SRS-RA5000」「SRS-RA3000」のサウンドを体験させていただくと、ローの位置はもちろん、ミドルからハイは音が飛んでいくようでしたね。

「SRS-RA5000」「SRS-RA3000」

関:ローは音楽の下の方にあって伝わりやすいですけど、ミドルやハイは、部屋の反射もうまく利用することで「アンビエントルームフィリング」というコンセプトに基づき、音楽で部屋の空間を満たすような感覚が得られます。そういった点で、通常の2chとは異なった体験ができるのです。

−−映画ではドルビーアトモスのオブジェクトオーディオという技術も存在しますよね。「360 Reality Audio」の技術は違いにあるのでしょうか。

岡崎:ソニーの場合、技術的には360°の全天球を再現しようとしているのが特長です。「360 Reality Audio」では、水平面より下、我々が南半球と呼ぶ位置にもオブジェクトを配置できます。

澤志:リファレンスシステムでは13本のスピーカーを配置していますが、前面に上中下の計9本という配置も音楽に適した形です。宇多田ヒカルのコンサートを収録した際には、私もお邪魔させていただいたのですが、実際にコンサート会場での音楽体験は前から聞こえる音が多いんですよ。でも、後ろにアンビエントを置いて歓声を入れると、また違った包み込まれた音を再現できます。これはライブを越えた超臨場感ですよね。

−−「Artist Connection」のアプリでデモとして公開されているザラ・ラーソンのデモは、ステージ上をカメラが動くのと一緒に音の位置も移動する面白い表現をされていますよね。

岡崎:ザラ・ラーソンのライブ収録は無観客で収録したのですが、普通にカット割りしてみると、通常のライブとの違いも出にくいんですよね。「360 Reality Audio」の音楽体験をより分かりやすくするために長回しで撮ってみようと制作しました。

−−「360 Reality Audio」対応した音源の制作は、どのように行わるのでしょうか。

岡崎:基本的な考え方として、今までのライブで録るのと変わらないかなと。収録方法としては、通常のライブ収録と同じラインで取って、アンビエントも別のマイクで録って、ミックス時に「360 Reality Audio」の音源として制作できます。ただ作り込むなら収録の際に観客目線なのか、ステージ上なのか、指揮者なのかで変わってきて、複数視点でとるために、それぞれのポイントでの音の収録してミックスするなど、実験もしています。

関連記事

インタビュー

もっとみる

Pick Up!

「インタビュー」の最新記事

もっとみる

blueprint book store

もっとみる