人工知能は作曲家になり得るのか? AI作曲の可能性を実例から検証
一方で、人類史の経験よりも数学的切り口による自動作曲もあり、それを御する方法もユニークなものが増えてきた。2017年に大阪大学COIが、脳波に基づいて自動作曲をするAIを発表している。これは曲のムードやジャンルを指定せずとも、脳波を読み取ることで「今どんな音楽を聞かせれば快になるか」をAIが理解するというものだ。脳波の状態が緊張状態であればリラックスする音を、すなわちリラックスという属性がついた和音、メロディ、音、リズムなどを提案し、脳波が興奮状態ならさらに興奮度を高めるべくハイテンポでハイダイナミクスな音を提案する。こうした「何かに基づいた自動作曲」というものは研究され続けている分野で、その作曲理論が西洋音楽に沿っているうちは大きくハズすことはないだろう。となれば、あとはデバイスの変化で体験的な違いが生み出せる。
もう一つ、筆者の好きな置き換え自動作曲ネタを挙げよう。こちらのページには空間充填曲線を辿ったある点のX・Y座標をハ長調に置き換えた実験的音楽が紹介されている。AIが介在するほど複雑な代物ではないにしろ、ある状態に対してある音を出すというルールを、色んなものに適用してみたという実験をみることができる。サイマティクスを撮影した写真をもう一度音楽に戻すというプロジェクトも海外のサイトで見た事があるが、どんな対象をどんなルールで音楽に置き換えるのかを考えるのは、興味深い。
そうした置き換え自動作曲は、今やリアルタイムで行えるところまでやってきた。こちらのニュースは、ダンサーの動きに合わせてAIがピアノを自動演奏する様子を報じている。これも身体の位置や変化量を音に置き換えることでダイナミクスが動きに連動するというもので、置き換えられる音をスケールで縛れば不快な音が飛び出すことも無い。高速処理や高機能なトラッキングセンサーが可能にした、人とAIのアンサンブルといえる。
音楽はセンスや直感に近しいものと思われつつも、パターンや定番が無数に存在する世界だ。今まで人間は経験と感性で構築や模倣を繰り返してきたが、AIならばそれを完全に定量化し、数値に置き換えることができる。ビッグデータやディープラーニングに注目が集まっている昨今、音楽とAIの融和はさらに加速していくことだろう。
■ヤマダユウス型
DTM系フリーライター。主な執筆ジャンルは音楽・楽器分析、アーティストインタビュー、ガジェット、プリキュアなど。好きなコード進行は<IVM7→VonIV>、好きなソフトシンセはSugarBytesの「Obscurium」。主な寄稿先に『ギズモード・ジャパン』、『アニメイトタイムズ』、『リアルサウンド』。