サウンド・プロファイリングのススメ                         (C)Y.Utsunomia 2008-2010 ご注意! 例によって、多少説教クサイ、キツイ文面になってしまっているが、これは  内容がaudacityの操作ではなく、聴き取りの矯正方法や聴き取りの達成目標に関する  ものであるからで、ここで矯正を拒否しても、達成できていなければ、現場的に大変  恥ずかしい思いをするか、この文面の100倍くらいひどいバッシングを受けることに  なります。我慢して身に付けましょう。  audacityプロフェッショナル・マニュアルでは、各種の解析ソフト(多くはフリーウェ ア)を推奨しているが、音の作業の基本はなんと言っても「聴いてみる」ことである。 聴き方には様々あるが、音楽制作の立場からは、表現(とその手法)、演奏、エモーシ ョン、各種の暗示的仕掛けなどの点検など(筆者の立場からは、こちらが専門なのだが) が、また、音そのものを取り扱う立場からは(両者は異なるが、やがて融合しなければ ならない運命にある)、システムの動作状態、コンディションなどのモニタリングがあ る。しなければならないことは多岐にわたるが、それが何であれ、「与えられた条件」 と「実現すべき目標」があることは常に同じであろう。  このような現実があることから、このマニュアルシリーズでは「練習問題」を設定し、 与えられた条件と、実現すべき目標の最小限を体験(楽しめるように)できるように、 想定してみた。現在、練習問題は第1集と第2集を公開しているが、解きかたには一定の 手順がある。大半は得られる情報を集め整理し、問題の仕掛けを推測することから 始まる。練習問題と現実の実戦(録音制作)では、得られる結果や手続き、問題の深さ やプレッシャーが相当に異なるが、セオリーは同じだ。ただ練習問題では「解けること」 が保障されているし、マシンパワーや動作環境(ノートパソコンの内蔵スピーカーしか 無い場合など)に配慮しているので、多少お気楽に臨める。  実際に出題して解き方を観察して気付いたのだが、うまく解けない人たちに共通する ことは、最初のステップである「聴く」ことがほとんど機能していないことだ。 最初にノイズを耳にしたときに「自分にはお手上げ」とでも思うのか、じっくり聴こう ともしない・・。決して、実際の録音制作とかけ離れているわけではない。例えば歌を 録音しようとしたときに、そこそこの録音設備ではそこそこの品位にしかならず、(高 価なセットでもある程度のS/N比にしかならない)あれこれ工夫しなければならないが、 同じように聴こえるノイズでも、作品に影響を与えるノイズと問題無いノイズがある。 その判断には、ノイズそのものにじっくり耳を傾ける必要がある。場合によっては練習 問題のように、キャンセルの方法があるかもしれない。  もちろん聴いて即座に判断できるようになるには、ある程度の訓練が必要かもしれな いが、第1集の1、2、3、4、5問目くらいまでは、どのようなノイズなのか、容易に識別 できるようにならなければならない。(4、5問はおよその傾向がわかれば、あとはそれ に従ったスペクトル分析で数値を把握し、問題解決する) ○極性に関すること  ステレオトラックの場合、まず行ってみることがある。ステレオのまま聴いたらその  後とりあえず、モノで聴いてみる。   audacityの機能のみで実行するには、ver,1.3.8以降の場合は、波形表示左側のトラ  ックメニューを開き「StereoからMonoへ」を実行すると、モノのトラック2つに分離  される。(わずか2クリックだ)   このまま再生するとモノによるヒアリングとなる。「バランス・ミキシングの心得」  の項にあるように、モニター系にモノ化スイッチがあると、一発だが、このスイッチ  でも用は足りる。   ver,1.3.7未満では「ステレオトラックを分離」→それぞれのトラックを「モノ」に  して再生を行うが、クリック回数が6回と少し面倒だ。  ☆これらの操作はaudacityがオフライン処理機でありながら、リアルタイム処理でき  る。つまり再生しながら切り替えられるのである。処理時間も無いことから、このよ  うなモノヒアリング用途の想定があるのかもしれない。しかしモノ化すると約6dBレベ  ルが上がるので、クリップしないようにトラックゲインを調整すること。  ★もしモノにしたときにレベルが下がったり、あるいは全く音が出なくなったら、  それは、LR間で極性が逆の成分があることを意味している。波形は表示されているの  に出力音が無くなったなら、レベル、移相が同じ、極性のみ逆の成分(しばしば逆相  という)である。L/Rで正負まったくシンメトリーの波形なので、打ち消しあったわ  けだ。拡大して波形を観察してみよう。   同時に音を聴き、そのときの音の状態を覚えよう。配線の間違いや、パッチベイに  プラグが半ざしであったり、複数マイクを使用しているときに、そのような逆極性の  ものが混ざっていたりすることもある。   ちなみにスピーカーメーカーのJBLとタンノイの古い規格では、この極性表示が他  社と逆になる。現在では+極に+、−極に−を直流印加(ウーハーやフルレンジでは  1.5v程度)すると、振動板が前進する方向で統一されているようだ。(直流印加はウ  ーハーでは問題なくてもそれ以外のユニットでは致命傷を与える場合もあるので、十  分注意する)  <リサージュを観察すると、左上がり直線の成分が見える>  ☆これらの打ち消しあった状態を「固定」するには、それらのトラックを両方とも選  択し「ミックスして作成」を実行する。  ★モノにしてもステレオで聴いても定位が同じセンターにある場合には、LR同一の信  号であることを意味している。   確認してみよう。モノ2つのトラックに分離し、片方のトラックのみ「上下を反転」  で極性を逆転してみよう。この状態で打ち消すなら(無音になるなら)同一成分であ  ったことが証明される。   センター成分は、とくにポップスでは重要で、センターが甘いと言う理由で、レコ  ード会社から作成した音楽の「納品拒否」を受けることすらある。  ミックス済みステレオトラックを、モノトラック2つに分離し、片方のトラックのみ  「上下を反転」し再生すると、センター成分のみ消去できる。もしセンター成分が  残っているなら、何らかの理由で「センターが甘い」ことになる。  <リサージュを観察すると、右上がり45度の直線の成分が見える>  ☆これらの打ち消しあった状態を「固定」するには、それらのトラックを両方とも選  択し「ミックスして作成」を実行する。 ○時差の認知  ★前記2種はヒアリングしたときに「左右の拡がり」感が無いが、拡がり感が感じられ  る場合もある。この拡がり感が曲者で、いわゆる生耳の聴きなれた、空間由来の拡が  り感なのか、単なる時差や位相差による拡がり感なのかを識別する必要がある。  ペアマイク・ステレオ録音でも、その拡がりは時差や位相差の集積だが、実際の空間  によって生じた時差や位相差は非常に複雑だ。これに対して、単純な時差や位相差の  場合は、前2例と同様に、モノ化し観察すると手がかりが得られる場合がある。   これは「レーテンシー」などの項目で触れているように、コムフィルターやそれに  準拠するフィルターが形成され、特徴的な音として聴こえるからだ。特徴的とは、あ  る種の音程感のある音で、エフェクターとして使用されているフランジャーのスイン  グが止まったような音である。   ただ、時差がある場合に、この特徴的な音が聴こえるのは20ms以内の時差の場合で、  それ以上に時差がある場合には、多少の訓練が必要かもしれない。古くからモノ信号  をステレオ化するのに、時差+片方のトラックの極性反転が用いられる。  これは単なる時差の場合、コムフィルターが聴こえやすく、時差が大きすぎると2つ  の音に分離して「2発」聴こえてしまう(ピアノ音で30ms程度が閾値とされる)ため、  コムフィルター音を軽減する目的で、極性反転しているのだ。   「ハース効果を〜」の項で例出したジェフベックの例が典型的であろう。  時差を確定するには(慣れれば聴くだけで確定できる・・)タイムシフトツールで  片方のトラックを動かして、コムフィルターが明確に現れるところを探し、そこから  ピッチが上がリきるところ、またはセンター定位が得られるところを探せばよい。  (モノ・モニターし、20〜30ms単位でタイムシフトしていき、コムフィルター音が  聴こえてきたら、シフト幅を半分ずつに縮めていき確定する)  極性が反転されている場合を想定し、非反転で見つからなければ、反転して試みる。   FFTを併用すると、コムフィルターや同様の規則性を持った凹凸が見える場合もあ  る。   上記はノイズを例に解説してみたが、通常の音楽信号でも同様の音が聴こえる。  ただ、音楽信号の場合は演奏や発音に「魂を奪われる」ため、意識的に聴くことに多  少の訓練を要する。レーテンシーの項で解説したように、我々の日常生活環境は、無  響室生活者をのぞき、反射音に満ち満ちている。コムフィルターやそれに順ずる規則  性のあるディップ(周波数−レベル特性上の深いへこみ)は、明らかに音情報そのも  のに対しては重大な「損失」なのに、そこに「魂を奪われて」いたら肝心の音源情報  (音源情報とは、音源の持ち主そのものの情報:楽器や、太古なら音源の生き物など、  犬猫はかすかな足音だけで、その主を特定できる・・・がその音は耳に到達したとき  にはボコボコに劣化している)を解析できなくなってしまい、ジュラ紀ならばティラ  ノザウルスに喰われてしまうところだ。   実際のところ、これらのディップは「意識できる音源情報」とは別に、それ以  前に「自分の居場所」の位置情報の解析に使用されているらしい(空間を音の状態で  解析している)。その過程で、失われたディップ部分の情報はある程度補完され、意  識下に伝達される仕組みになっているようだ。片耳聞き取りではディップの補完が効  果的に行えないため、この音(コムフィルター音)がよく聴こえるようになる。また、  その音は、その場所に立てたマイクロホンで収音できる音に近似であることは、古く  から知られている。ならば、両耳で聴こえる音は何者なのだろう。その音をマイクロ  ホンで同じように収音することはできない。おそらくは脳が意識下に情報伝達する前  にエンハンス合成した「虚像」なのだろう。   両耳で聴いたときと同等の情報を、片耳で得ようとすると、両耳の時の1/10以下に  距離を縮める必要がある。この効果を筆者は「音源接近効果」と呼んでいるが、無響室  ではこの効果が表れない。やはりコムフィルターを損失としてではなく、有用な情報  として利用しているのだろう。   古生物学者の説では、この聴覚の機能発達が脳の新皮質の巨大化の原動力らしい。  ならば我々はもっと聴覚を利用しなければ馬鹿になってしまうのだろう。(50万文字  分の解説を20行に縮めてみました・・)   とにかく多少の訓練で、聴こえるようになります。 ○帯域  練習問題1の4問目のノイズは、明確に低域と高域が無いことが識別できなければな  らない。ただどれくらいの幅の帯域なのか、どれくらいの傾斜なのかを定量的に識別  するには、それなりの訓練が必要だ。筆者の要求目標としては、1KHzを含む、1オク  ターブ程度のバンド幅であることが瞬時に認識できれば、十分と思う。あとはFFTに  まかせれば良いことだ。F#かGの音程が感じられれば、さらに上出来だろう。   FFTにまかせるのは大いに結構なのだが、必ずヒアリングをもとに予測してみて、  照らし合わせてみることが、訓練として重要だ。   楽音の場合も同様で、FFTでの観測をこのテキストでは強く推奨してはいるが、  同様に聴いてみて、予測し、それを裏付ける形での利用が望ましい。 ○規則性  上記の極性や帯域も、一種の規則性であるが、プロファイリングとは、隠された規則  性を読み解くことである。それが数学的なものなのか、幾何学的なものなのか、いに  しえより伝わる数秘術なのか、自然現象に根拠を持つ数列なのか・・。   また時間軸上の規則性(周期的変化)も長周期なのか短周期なのか。ひたすら観察  です。   比較的長周期(200ms〜)の場合には、audacityの基本機能が利用できる。  audacityはもともとMTRなので、再生しながら、次のトラックを録音することは基本  機能で、周期に合わせてテーブルなどを指先でタッピングしながら、それを録音し  ラベルを付け、周期の解析を支援することができる。ラベル機能と併用するとさらに  使いやすくなる。   短周期の場合は、波形1サイクル分、あるいはそれ以下の場合もあるが、正確な周  期がわかれば、その1周期を切り出し、「リピート」で望む回数(あるいは必要な時間  持続)を得ることができます。   仮に正確な周期と反復性を持ったノイズ(消去したい信号という意味で)であるなら、  1周期分を切り出し「増殖」させた(純化した)ノイズを極性反転すれば、対象のノイズ  を相殺することができるだろう。   このような周期性を見出すことも、その最も効果的な解析の一つが「聴くこと」です。  FFTなどの高度な数学的処理の場合、窓関数という厄介な問題がある上、FFTの解析単  位そのものが比較的長周期であるため、周期性の解析には「自己相関」やオーバーラッ  プ解析などの手法を駆使しなければならないが、「聴こえたもの」を裏付けるかたちで  作業をすすめると、「間違い」も起こりにくく、また結論までが速い。  つづく