サカナクション・山口一郎が語る、“没入しない音楽体験”という選択肢 そしてAI時代の新たなるアプローチ
長らく、音楽は「聴くもの」だった。しかし今、その前提が揺らぎ始めている。音がリアルタイムで文字へと変換される時代に「聴く」と「読む」は、その境界を失うかもしれない。
さらにオープンイヤー型イヤホンの進化が音楽と環境音を相対化するなかで、「没入」を前提としたリスニング体験も変化しつつある。
Shokz Japanの新製品『OpenFit Pro』発表会にアンバサダーとして登壇したサカナクションの山口一郎が語ったのは、その先にある未来だ。リアルサウンドテック編集部では発表会後の個別取材にて彼の本音を聞いた。(小池直也)
没入ではなく、日常に音楽を
――アンバサダー就任前からShokzのオープンイヤー製品を使われていたそうですが、日常生活でどういう部分を重視してアイテムを選んでいるのでしょう?
山口:Shokzを日常的に使う理由は、外部の音を聞きながら作業したいからです。密閉型のヘッドホンやイヤホンだと外部が聞こえず、マルチタスク時に気持ちが遮られる感じがするんですよ。でもオープンイヤーなら自分のフラットな気持ちを保ったまま、自然と音が入り込んでくる。
以前は肩にかけるウェアラブルスピーカーも使ってました。あれは肩が凝るので、その延長線上でオープンイヤーを選んだんです。他社の製品も使ってみましたが、Shokzが一番よかったですね。
――この分野では長らく「没入」がキーワードとして追求されてきましたが、山口さんが考えているのはそれと逆行する概念です。
山口:そうなんです。これまでイヤホンやヘッドホンは「没入」だけが求められてきたけど、「それ以外の世界観もある」というアイデアが本当に画期的でした。
――楽曲制作の現場では、もちろん高精度なモニター環境で音を確認されていると思います。Shokzはそのなかでどう位置付けられているのでしょうか?
山口:ミュージシャンなので、普段音楽を作る時に使うイヤホンやヘッドホンは高音質のものを使っています。でも確認として、スマホや車のスピーカーで聴き比べるんですね。そんな個人的チェック項目のひとつがShokz。
あとは日常生活のなかで流し聴きをしながら、「この曲いいかも、この構成が面白いかも」とインスピレーションを得ることも多いです。
――具体的にはどういった音楽を聴かれているんですか?
山口:最近は自分の研究のために日本や海外のチャートを聴いてます。あとはジャズやハウス、テクノ、エレクトロニカなどのジャンルごとのプレイリストも。そこで引っかかった音楽を自分のプレイリストに追加してリファレンスを作っていきますね。
――では、山口さんにとって「いい音」の定義とは?
山口:基本的には、自分が好きな音が「いい音」だと思ってます。たとえばカセットテープの音って劣化したサウンドとも言えますが、それが人気なわけじゃないですか。その一方、ハイファイでデジタルな音像が好きな人もいる。
僕はLPレコードの音が好きですね。色々な表現媒体があるなかで、「この音が好き」という自分の好みを探っていく作業は面白いと思います。
――今後オープンイヤー型イヤホンは浸透していくと思いますか?
山口:スマートAIグラスが出てきて、ここから二分化するんじゃないかなと。ただ、オープンイヤー型の問題は低音です。遮音せずにローを出すなら、ユニットでどれだけ再現できるかになってきますね。その点で『OpenFit Pro』で新たに搭載されたフォーカスモードは技術的にすごい。
実はフォーカスモード自体、「外部の音を多少抑えながら音楽を聴ける機能を作れないか」と、オープンイヤーの特徴と矛盾する要望をShokz側と話していたんですよ。それが形になったという意味で感慨深くもある。
これが普及したら、冷蔵庫が開いた音や洗濯が終わった音などがBluetoothと同期して聞こえるようになるでしょうね。数年で急速に進化した分野なので、今後オープンイヤー方式のイヤフォンがどんな形状でどんな音質になるのか楽しみです。
オープンイヤーをライブで使う未来
――ちなみに山口さんは会見のトークセッションで、耳が大きいというお話もされていましたね。
山口:どんなイヤホンも耳に合わなくて、イヤーキャップも一番大きいやつでも小さいんですよ。イヤモニもクッション型を使っています。オープンイヤーはそれが全く関係ないので助かりますね。
――『OpenFit Pro』を「ライブで使いたい」という発言も気になりました。
山口:観客に付けてもらいたいんです。例えば、開演前からイヤホンで波の音が流れていたら、SEやBGMの使い方ももっと広がると思っていて。曲間の無音でも何かが流れていて、それに合わせて曲が始まったりしても面白そうだし。
あとは実際の演奏はダイレクトに聴いて、ボーカルのリバーブ音やコーラスだけをイヤホンから出すとか、そういったミックスができるとライブでの表現の可能性が広がるなと。
――それは面白いですね。小型だからヘッドホンを貸し出すよりも現実的ですし。
山口:2015年にパリコレクションで「ANREALAGE 2016 S/S "REFLECT"」のサウンドディレクションを担当しました。あのショーは服のテーマに合わせてバイノーラル音源を使いました。だから来場者にヘッドホンをしてもらったのですが、今の感覚で振り返ると当時は回線的に貧弱で、音の劣化などの問題があって。
でもあれから10年以上経っているし、Bluetoothも進化しましたからね。あとは何万人規模で同時接続できるレベルまでいけば、ライブでも使ってみたいです。
――逆の発想ですが、演者側のイヤーモニターとしてオープンイヤーを使う未来は想像できますか。
山口:あると思います。イヤモニでも、外音が少し入るようなタイプはあって。もちろんShokzほどオープンではないのですが、外音が入り込むように小さい穴が開いた密閉型は存在します。試しに使ってみたら、まだピンときませんでしたけど。
ただ、僕は正直イヤモニをしたくないんです。できるなら、フットモニターで演奏したい。だからオープンエア型の出力が上がれば、全然ライブで使う可能性はあります。
AIは文字と音声を統合するか?
――先ほどスマートAIグラスの話題もありましたが、YouTubeでの雑談配信「サカナクション山口一郎の今夜も雑談中。」で生成AIについて語られていました。ネガティブではないようでしたが、それについて改めて聞きたいです。
山口:「どこからAIを使っているのか?」という点がシビアになっていますよね。今は写真のレタッチをAIでやってる人が多いですけど、音楽もマスタリングやミックスにAIを使うのは問題とされず、メロディや歌詞で使ったら「それはないだろ」となるのかなと。そういった境界線が多分これから自然にできると感じます。
ただ個人的には音楽制作などのクリエイティブなことをする上で、AIを頼るのは全然アリだと思ってます。ただ結果的に今のAI技術だと作り過ぎてしまうので、人間が手を加えられる余白をAIが作れるようになると、多分爆発的に広がっていくと思いますね。特にヒップホップには使われてくるんじゃないかと思います。
――サンプリング主体のヒップホップのビートの半分以上はAIをサンプリングしている、という話もあります。
山口:あとはリリックもそうですね。韻を踏む能力は本当に優れていると思います。ただ日本語のニュアンスは本当に難しいので、それをAIがどう解釈するのか。今後の進化が気になっています。AIが中原中也の詩を理解できるかとか。正解がないものに正解を作るわけですからね。
僕は歌詞をカットアップ方式で作っています。何十パターンの歌詞を書いて、AメロとBメロを入れ替えてみるとか、そういったことを繰り返しやるんですよ。そのなかで偶然、自分の思ってもなかった意味が生まれたりする。そこに驚いて「これが完成」とすることがある。
AIを使えば、そういう試行が膨大な量で可能になるから、「歌詞を使う上でのツールとして利用する」という選択は現実的になってきています。
――山口さんは『OpenFit Pro』を通話にも使用されているそうですが、AI音声認識の精度も上がっています。事実、今日の発表会を録音しながらリアルタイムで文字起こしする記者もいました。そうなると文字と声の境界がなくなるような未来が来る?
山口:多分そうなるんじゃないですかね。先日スマートグラス『AirCaps』を購入したんですけど、通訳メガネみたいな感じなんですよ。会話した内容がリアルタイムで視界に出るんです。英語も日本語に訳してくれます。
だから、お互いに使用していれば、僕は日本語、向こうは英語で会話ができるんですよ。そういった「音の文字化」は、ますます進化していくはずです。言語の壁がリスクにならない時代が来るはず。
――本も文字で読む/Audibleで聞くというインプットの選択ができるようになりました。
山口:となれば、音楽も無関係ではないですよね。日本語の歌詞をいちいちテロップで見るんじゃなくて、スマートグラスを付けて聴くと歌詞の意味が出てくるという。それがAIによって進むと嬉しいなと個人的に思います。