ホログラフィック音響空間の実在性

NASではなくパソコン(MacBook Air)に直接接続したUSBメモリのファイルを使ったらMm(拙システムのこと)の音はよくなるだろうか,D-PremierではDACの直前でバッファリングしているから,それ以前の処理過程は以降の過程から遮断され,出力音に影響しないはずである.しかし,iTunesを動かすOSによって音が変わるし,iPadのremoteを使うと音が劣化してしまうことを経験している.つまり,D-Premier以前の処理過程がそれ以降の処理過程に影響することがあり得るのだ.

実験してみると,USBメモリから読み出すほうが,NASからの読み出しよりもずっと音がよい.今日の実験では,EnyaのCD(のファイル)を使った.Enyaの声,とくにハミングの合唱がNASではささくれ立ちが目立ち,ハーモニーが濁る.Enyaの実演を聞いたことはないが,多分そんなはずはないので,録音が悪いのだろうと思っていた.しかし,ファイルをUSBのものにして聞き直すと,この濁りが消え,透き通るような力強い声とそのハーモニーが聞こえた.USBのファイルからパソコン本体のSSDのファイルに変えると,この透明感はよりはっきりした.

なぜ,こういう違いが生じるのだろう.NASからの読み出し方式では,NASからWiFi経由でパソコンに送られたミュージックデータがふたたびWiFi経由でD-Premierに送られるため,WiFi上で一段余分なデータのやりとりがあること,およびハードディスクへのランダムアクセスが必ずしもスムースでないことのふたつの要因が考えられる,これらがWiFiの電波状態と相まって,D-Premierへのデータの到着を不安定にする.その様子はMacのアクティビティモニタとDevialet Air(ストリーミングプログラム)のstatusを見ることでよくわかる.本体SSDないしUSBのファイルを使うとき,Music bufferは全く欠けることがなく,Speed Adjustmentは微動だにしないが,NASのファイルではこれがしばしば大きく揺れ動く.この不安定さを吸収するためのバッファリングであるはずだが,D-Premierが行う変動への対処自体が必ずしも万全ではなく,ときにディジタル的に音信号を損なうし,またDAC以降の処理過程に電源変動などのアナログ的な影響を与えてしまうことがあるのかも知れない.本体SSDとUSBとの違いは,データの経路がひとつ余分になり,同様の影響があると考えられる.しかし,その音への影響はわずかである.


音源ファイルをパソコン本体のSSDから読み出すことにして,OSを変えたらどうなるか.比較したOSはSnow LeopardとLionである.案の定,というか,心配したとおり,Lionの音は悪い.細部のニュアンスがつぶされ,音が鈍重だ.また,サ行の音が汚く,目立つ.どうも左右の音のタイミングがずれる感じがある.それに比べ,Snow Leopardでは,Enyaが生き生きとし,リズムの歯切れがよく明晰で,あらためてEnyaの良さを知った.どちらもAudio MIDI設定のフォーマットを44.1KHz, 2ch-24bitにしている.なぜ16bitではなく24bitにしたかといえば,Lionではそのほうが音がよかったからである.それでもSnow Leopardと比べると上述のような具合である.この理由は分からないが,LionとSnow Leopardではオーディオ出力フォーマットが異なるのだろうか.あるいは,Devialet Airの処理が両者で異なるのだろうか.


 この実験を繰り返しているとき,以前からずっと気になっていたことを再び考えてみた.ステレオ再生によってホログラフィックな音響空間が出来上がるのではないか,というようなことを何度か書いたが,単に感覚的なイメージを表現するレトリックとして述べただけで,文字通りそう考えていたわけではない.しかし,いろんな体験を経ると,どうしても眼前にリアルな音響空間が構成される,という感じが拭えない. このことを最初に感じたのは,HB-1を導入した直後の経験だ.既述した失敗だが,HB-1の底面とスピーカスタンドとの間にはさむゲルについていたパラフィンを外すのを忘れて聴いたたため,スピーカがズレだし,その結果,右斜め上にくっきりと雑音が聞こえたのだ.まるでそこに音源があるかのように,聴く場所を変えてもリアルに響いた.そこで,単に感覚的なイメージではなく,じつはリアルに,つまり眼前の空間に3次元音響空間が作り出され,リスナーはそれを感知するのではないか,と考えてみた.

左右スピーカからの音波による相互作用によって,3次元空間の各点に空気の疎密が生じ,それが音波の時変動に従って時変動し,空気振動となる.こうして,空間の各点が発音体となり,それらから発せられる音がリスナーの耳に届く.このように考えれば,従来の,スピーカの直接音と周囲の反射音が左右の耳へ入力され,それに基づいて音響空間が認識される,つまり脳内でバーチャルに再構成されるという考え方とは全く異なる観点に立つことになる.

目は3次元視野からやってくる光を処理し,結果の情報を脳に送り,それに基づき脳は視覚環境を再構成する.ホログラフィック再現画像を見て3次元情報を認識するのも同様である.では四方八方から来る光情報がなぜまとめられて認識されるのか.眼球がレンズ機能を持ち,それによって収束された像が2次元の網膜上に結び,その各点の強度に周波数成分と2次元位置の情報が付加されて脳に送られるからである.

 これと並行して聴覚を考えれば,(耳介を含む)聴覚器官全体は,音を収束させるレンズ機能と,収束された音像を受ける網膜に相当する機能とにより,周波数成分と空間位置の情報が付加された強度情報を脳に送り出す,と考えられる.複雑な構造の耳介は音響レンズの機能を果たし,外界の3次元音響空間情報を収束させる機能を果たすのだろう.

ステレオ再生では,左右スピーカからの音波の相互作用によって生じたホログラフィック3次元音響空間から送り込まれる音情報が,外耳から構成される音響レンズによって内耳に収束し,多分そこにある蝸牛が視覚の網膜に相当して,音像各点の強度に,周波数成分と位置情報が付加されて脳内に送り込まれる,と考えられる(蝸牛での処理は,かつて考えれていたように周波数成分の分解を行うのみというような単純な機能ではない,ということが前掲書「音の不思議を探る」で指摘されている).バイノーラル録音は耳内の音響レンズの焦点近くにマイクを置いて録音し,それをイヤホンで耳内のほぼ同じ位置で再生するから,再生時,音響レンズを経ずに音像の近似情報を蝸牛に送ることになる.

視覚での網膜は2次元だから,そこからもとの3次元視覚空間を再現するためには,両目像の視差など種々の手がかり情報を使った高度な脳内情報処理が必須である.聴覚も同様で,左右だけでなく,奥行き,高さなどの位置情報を再現するには,フォルマントの変化や立ち上がり,立ち下がりのパターンなどの手がかり情報を使った高度な脳内情報処理が必要である.カクテルパーティ効果など,能動的な認識が行われるのは,脳における処理が聴覚器官にフィードバックされ,それを制御するからである.手がかり情報とそれによる3次元音響空間の認知の仕方については,「音響工学基礎論」(飯田一博著,コロナ社,2012年)に詳しい.

 聴覚認識の基本構造をこのように考えてステレオの仕組みを見直せば,あらためて左右スピーカによるホログラフィック合成の重要性がはっきりする.つまり,左右スピーカから発せられる音波のコヒーレンシーの保持と出来るだけ厳密な同期の重要性である.これがピュアな,つまり純粋な,オーディオを構成するための基本則であり,まず考えなければならない親指ルール(rule of thumb)である.今日の実験で,あらためてこのことを思い知らされた.また,前稿で述べたように,周囲の壁などからの反射はピュアな音を汚す阻害要因になるだけである.

ここで新しく出てきた課題は,どのようなマイクロフォンをどのようにセッティングして録音し,それをどのようなスピーカをどのようなセッティングで再生すればもっとも望ましいリアルなホログラフィック空間を再構成できるのか,という問題である.ステレオ再生でいま私たちに出来るのは,既成,既存の録音を与件として,二つのスピーカのセッティングをあれこれ試して見るだけである.これが最上のやり方であるはずはない.この観点からのステレオ研究の再構築が望まれる.

では,マルチチャネル方式はどうか.はやくも1930年代から研究されているという.しかし,これまでのところ,2チャンネルステレオを超えて普及することはなかった.とくに4チャネルは1970年代に様々な方式が考えられ,LP録音も再生システムも市場に出たが,消えてしまった.その後,AV関連で5.1チャネル方式がかなり広がったようだが,ピュアオーディオの対象としてこの方式を考える人はあまりいないのではないか.10年以上前になるが,某放送局の研究所で数10個のスピーカを使った研究用の試作システムを聴いたことがある.一緒に聴いた某教授は,すばらしい,といっていたが,私にはとてもそのようには聞こえなかった.音の濁りがひどく,それが歪みっぽく聞こえたからである.チャネルごとの音波の相互作用によって音響空間を作り出すという観点に立つと,マルチチャネル方式は,多重の相互作用が互いを傷つけ合い,自家中毒を起こしてしまうのではないか.

リスニングポイントの考え方も見直しが必要となる.左右スピーカの直接音とその反射の間接音がリスナーの耳に入る,という固定概念でステレオを考えると,最適のリスニングポイントがあって,そのいわゆるスイートスポットに頭を固定して音楽を聴き続ける,ということがまるで至上命令のように要請される.しかし,こんな窮屈な状態で果たして音楽を長時間楽しめるのだろうか.私自身,長い間この固定概念に縛られてきたが,いまはそこから解き放たれた.Mm を聴くとき,部屋の中を歩き回ったり,左スピーカの前に置いたソファに寝転がったり,思い切り自由にして聴いている.現在のMm のセッティングで聞く限り,聴く位置や姿勢に関係なく,音場空間と音像は安定して存在し,その位置も音色もほとんど変化しない.これもホログラフィック音響空間の実在性を証左する現象のひとつであると考えている.

コメント

  1. https://twitter.com/DEVIALET/status/220094138966745088
    Devialetのバージョンアップが公開されましたね。(^^

    返信削除

コメントを投稿

人気の投稿