――改めて飛澤さんがヘッドフォンでの3Dオーディオに取り組むようになった経緯などを教えてください。
飛澤:2016年、映像がVR元年といわれた年、映像がどんどん進化し、360度回転などもできるようになりましたが、「音って、どうなんだろう?」と考えてみたのです。
サラウンドというのはあったし、2000年以降にハイレゾというのは出てきたけれど、そのメリットを享受できたのはマニアと呼ばれる人たちだけであり、それは進化といえるのだろうか。ステレオが登場した半世紀前から、まったく進化していないのでは……とショックを受けたのです。MP3のような圧縮技術は出てきたけど、聴く側からすれば進化ではなく、退化ではないかと。
――確かにYouTubeひとつをとっても、映像の容量は非常に大きくなったのに、音は圧縮オーディオのままで、その差は開く一方ですからね。でも、音の進化って、なかなかイメージしにくいです。
飛澤:VRという言葉とともに映像が3D化して進化しているのですから、音も3D化すればいいのではないか、そんな思いが発端でした。では実際、どうすれば音の3D化ができるだろうと調べてみると、ちょうど3Dパンナーなどがいろいろ出てきた時代でした。それらを使えば、3Dができるだろうと単純に考えたのです。製品説明を見ても、これを使えば立体空間を表現できると記載されているから、導入すればいいだろうと。
当時、都内の市ヶ谷にあった自身のスタジオでいろいろトライしていたのですが、どうも思った通りの立体化ができませんでした。ちょうど引っ越しを考えていたこともあったので、思い切ってVR、3Dオーディオだけのためのスタジオを新設する形で渋谷にスタジオごと移転したのです。環境さえ整えれば、思った通りの音になるはずと信じて。
ところが、いざ機材、ソフトを一式揃えて試してみたら、全然表現できなかった。ヘッドフォンで聴きながら、後ろにパンニングしてみても、全然分からないし、上下に動かしたら、もっと分からない。
――市販のソフトが何種類かありますが、それらの効果が今一つである、ということですか?
飛澤:要するにバイノーラルプロセッシングの性能が低く、しっかり認識できるレベルには到底及ばない感じだったのです。それが2017年のことでして、一時は諦めかけました。でも「いや、そんなはずはない」と思いなおしまして。
もともと僕はLRのステレオミックスをする上で、空間を作っていくことを得意としていました。この音はずっと前方、こちらはそれより一歩後ろ、二歩後ろ……というようにヘッドフォンをしていても自然な空間を感じることができるミックスをしてきたので、きっとできるはず、という可能性を感じてはいました。そこで、1つのソフトだけでは表現できなくても、現在あるプラグインを組み合わせつつ駆使すれば、なんとか後ろを表現できるのではないかと考え始めたのです。
――それが、以前DTMステーションCreativeでの楽曲、「Sweet My Heart feat.小寺可南子」のVRミックスをお願いしたころでしょうか?確かDolby Atmosのヘッドホンモニターの仕組みなどを使っていたような……。(第767回参照)
筆者がプロデュースした小寺可南子さんのミニアルバム「Sweet My Heart」飛澤:まさにそのころですね。Dolby Atmosのミックスをする際の簡易モニターシステムがあったので、それを利用しつつ、WavesのNXZを使ったり、一番エグく感じられたのはWave Artsの「Panorama 5」(現在の最新バージョンはPanorama 6)でした。自分で納得できるレベルとは言い難い状況ではあったものの、これらを音源によって使い分けるなどして、当時自分ができる最大限の表現をしたのが、あの曲でした。
――私も当時、現在の技術でできるのは、あれが限界なのだろうと思っていましたが、そこからさらに進化したと?
飛澤:改めて立体空間ってどう表現するものなのか、という原点に戻って掘り下げていきました。LRのステレオミックスでも奥行きの表現をしていたので、それを後ろにするにはどうすればいいのか。一つの方法としてあったのは、逆位相にすること。こうすると、すごく気持ち悪いのですが、後ろ側に音がいきます。ミックスの常識からすると逆位相は禁じ手。でも、これをうまく使えないだろうかと考えてみたのです。位相変化を音源に与えて、心地悪さを表現したら、ひゅ~っと後ろに定位できるのではないか。
――確かに、左右逆位相にすると、すごく気持ち悪い変な音になりますよね。
飛澤:単純に逆位相というのではなく、ショートディレイを使ってみたらどうだろうかと延々と試していきました。時間的には1msec~15msecくらいの超ショートディレイ。すると、なんとなく可能性が見えてきました。このショートディレイをファーストリフレクション(一次反射)に見立てていくことで、何かできそうだと。その結果、たどり着いたのが、前後左右4方向を上層と下層の2つを合わせた計8つの方向に別々のショートディレイを付けることで、位相コントロールを行なって、空間を表現できる方法を開発するにいたったのです。
――8つの方向だから、計8つのディレイを走らせる、ということですか?
飛澤:そうです。実際には1つの方向を90度で分けるので、16個のディレイを使います。人間はそれらのディレイをファーストリフレクションと認識し、立体的に音を捉えるようになるのです。この際、16個のディレイそれぞれに、どのくらいの時間を設定するかは3Dパンナーを使って行ないます。つまり、Ambisonicsエンコードをしており、この空間情報を持ったパンニングによってディレイタイム、センド量を、それぞれの方向ごとに割り出し、制御しているのです。
カテゴリー
関連記事
ホット記事