改訂audacityのイコライゼーション                         (C)Y.Utsunomia 2008-2010 ***************************************  筆者の浅はかな思い込みから、audacity搭載のイコライゼーションについて、大きな 誤認がありました。2010_02_08以前の版を御使用の方はこれを破棄し、改訂版を使用さ れるようにお願いいたします。 ***************************************  アナログの時代から、ミキサーや、さらにはスタジオ機能そのものを印象付けるもの の一つにイコライゼーション(以下フィルター)の良否(目的に対する)がある。  人間の思考印象とは妙なもので、その機器やスタジオの本質ではないのに、そのフィ ルターの印象で記憶していたりする。イコライゼーションとはequal(等価=同等の価値) を語源とし、__lize 〜にする、を経て、__lizer 〜するもの、等価にするもの〜等価 器とも訳されるが、そもそもフィルターごときで異なる伝送系(マイクロフォンの種類 や立て位置、帯域など)による違いを埋め合わせて等価にできるわけもなく、どちらか といえば希望的呼称と言える。  この名称が使われ始めたのは伝送論において、とくに伝送技術の黎明期において電話 の長距離伝送を可能とするため、各中継地点に中継地点の間で生じる伝送ロスを補償す る際に、その補償を行うことで伝送ロスが発生する以前の状態と「等価」にする、とい う目的の技術に対して用いられた。  この等価にする技術とは、単にフィルターによる補正だけではないのだが、長距離伝 送で生じるロスの顕著な変化は、その長距離伝送ケーブル内で生じる「分布定数回路」 損失による主に高域の劣化とレベルの低下が主要なものであった。したがって当時の電 話伝送は(現在でもやや事情は異なるが)劣化→補償→劣化→補償を延々と繰り返し、 一定の5KHzまたは7KHzの帯域をおおよそ平坦に保つものの、度重なる劣化と補償で位相 特性は相当にぐちゃぐちゃになっていた。現在でも局間こそデジタル化されているが、 局から各家庭の固定電話までは同じ状況である。ドラマや芝居などで電話の効果音を作 成するのに、単なる帯域制限(4KHz程度の)だけではリアルな電話の音声に聴こえない のは、この位相劣化(歪み)が再現できていないからである。  現在の携帯電話などでは、確かに何を話しているのかという言語情報は伝わるのであ るが、生声に含まれる「エモーション」(感情のようなもの)情報がデジタル伝送/デ ジタル補償の繰り返しで劣化損失し、相手に「エモーション」が伝わらずにちぐはぐな 会話をしてしまうことがある。確かに私が家を出たての若いころ、親元に電話をかけた 際、常に親の機嫌が良いか悪いか、わずかな情報に聞き耳を立てたことを覚えているが、 携帯電話ではそのような努力は無意味なようだ。デジタルにおける情報圧縮には様々な 方式があるが、「パヒューム」の歌でお馴染みのボコーダーや、FFTなどもこの圧縮技 術に大きく貢献しているが、エモーションは削れ落ちてしまうようだ。FFT技術に問題 があるわけではなく、圧縮に問題がある。  イコライゼーションという語はこのように、積極的な音作りのための道具(名称)と いうよりは、「損失」に対する「補償」のニュアンスが強い。もっとも頭の中にあるイ マジネーションと「等価」にするため使用するという意見もある。  Audacityに標準搭載されている(1.3.x以降)イコライゼーションは、一見パラメトリ ック、あるいはグラフィックイコライザのような操作様式を持つが、内容はさらに進化 した「FFTフィルター」である。伝達特性は横軸:周波数、縦軸:伝送レベル、の平面 にポイントで折れ線入力し、フィルター長スライダーで適用素子数を調整する。すると 実現されるであろうフィルターカーブがシミュレーション・プレビューされるというも ので、操作範囲は最大-120dBから+60dBに及ぶ。  古い世代のスタジオエンジニアにとって、最も驚異的なことは操作範囲の広大さもさる  ことながら、何をどのように変化させても全く位相が変化しないことだろう。  フィルターには多くのタイプがある。列記すると  *振幅位相フィルター   振幅特性(周波数振幅特性:周波数特性と略される)を変化させることが目的だが、   同時に位相特性も変化してしまう。旧世代のエンジニアはこの問題に悩まされ、   同時に巧妙に利用し音作りを行ってきた。いわゆるイコライザー。  *等振幅位相フィルター   振幅特性を出来るだけ一定に保ち、位相周波数特性のみを変化させることが目的の   フィルター。振幅は元の状態を保っているのに、音のキャラクターのみを変化させ   ることで音作りすることができる。一部のエンハンサー(エキサイターTM)や振幅   位相フィルターの補正回路として使用されていた。筆者の古い作品の多くは、この   独自回路によって独自の音作りを行っていた。パラメトリック・イコライザーのよ   うな操作系だが、意識的なコントロールが困難な一面を持つ。  *等位相振幅フィルター   周波数振幅特性のみを変化させることができ、位相特性は元の状態を保ったまま   作用するフィルター。実機ではGMLのアウトボードがもっともこのニュアンスが色   濃い。振幅特性は変化するのに、基本的にキャラクタは変化しない。逆に言えば   各種の補正には最も適しているが、積極的な音作りには独特の作法が必要。    FFTフィルタ技術が実用化されるまでは「絵に描いた餅」であった。  audacity 1.3.x以前はFFTフィルタの名称はあるものの、完成度が低く位相回転以前 に干渉やオーバーシュートなど不安定要因が多く含まれていた。しかし1.3.x以降の 進化は目覚しく、数あるオーディオ用フィルタの中で、最も音色保存性に優れたものの 一つとして位置づけることができる。 参考 FFTフィルタの性質)  先に触れたように、このイコライゼーションはFFTフィルターなので、素子ポイントは 等周波数間隔(間隔はサンプリング周波数とFFTサイズに依存)なので、対数スケール では高域ほど密に傾斜設定できるという特徴を持ち、逆に言えば低域では分解能が上が らないという問題を持つ。  しかしこのFFTフィルタの分解能はサンプリング周波数の1/2の周波数から低い方へ等 間隔に並ぶため、低域で高い分解能を得るには、サンプリング周波数を低く変更して処 理を行うことで改善ができる。無論、サンプリング定理によりサンプリング周波数を低 く変更すると、帯域もその分狭くなるので、対応する対策を立てておくこと。(また 「折り返し雑音」と呼ばれる成分も出現する・・・ソフト・アンチエリアスで軽減は されているが) ☆イコライゼーションのセッティングデータはサンプリング周波数とは無関係に取り扱 われるので、サンプリング周波数変更のたびに作成しなおす必要は無い。 ☆一回で望む減衰特性が得られない場合、何度か重複してイコライゼーション処理を行 うことも効果的である。 **ポピュラー音楽系の使用者の多くは、この形式のイコライゼーションに閉口するか  もしれないが、フィルターとは本質的にこのようなものであり、この平面(あるいは  数値)によりおおよそあらゆるフィルターが実現できると考えれば、学習したり、プ  リセットを作成したりする元気も出ようというものだ。初心者のうちは「ツマミの回  し具合」で感覚的に学ぶという方法もないわけではないが、それは旧世代の考え方で  あり「偶然に頼る」というオリジナリティーに反逆する行為かもしれない。「ツマミ  のまわし具合」による思考は、少なくともソフトデザイナーの手の内で転がされてい  ることに早く気付くべきだろう。   ここまで「ひどい非難」をするには理由がある。   筆者もいくつかの著名なDAWについて使用あるいは分析評価の経験があるが、特性はと  もかく、多くのソフトに搭載されているイコライゼーションの質の悪さがある。確か  に多くのソフトではaudacityとは異なり、聴きながら音作りができるリアルタイ  ム性が確保されているが、一般的傾向として、フラットな状態からどれか一つのイコ  ライゼーションつまみをわずかでも触れると、その数値のいかんに関わらず、突然ト  ーンが「イコライザーあり!」の音色に変化(往々にして解像度と歪み感と位相特性  が悪化)し、その後はツマミを動かしても同じ傾向のままで、トーンの積極的な操作  はできない、といったものが多い。   反面、audacityのイコライゼーションはパラメータを少々動かしても、キャラクタ  そのものはほとんど変化せず、「本当に効いてるのか??」と思うこともよくある。  振幅特性が変化しているのに位相特性が変化しないことは、ある意味非常に不自然な  ことではあるが、この性質を導入することで、これまでは不可能であった操作の実現  が可能になる(後述)。 <<ver,1.3.x系イコライゼーション(EQ)の使い方例>>   多くのユーザーが戸惑う点の一つは、広大な可変範囲を持て余すことである。  有るものはしっかり使いたくなるものだが、-120〜+60dBの可変範囲はまるで広大な  大宇宙のような広さだ。このようなときには、旧来のEQの可変範囲を見習ってみる  ことも一つの方法だろう。参考までに、アナログ時代の可変範囲の相場を挙げてみる  と、  ミキシングコンソール:±12dB〜±18dB  グラフィックEQ   :±6dB〜±12dB (audacity搭載のGEQでは±15dB)  フォノEQ      :±20dB〜±30dB(audacity搭載のEQ例では±20dB)  マルチ・チャンネルディバイダーまたは  アイソレーター   :+0dB/-60dB 程度  これくらいの可変幅なので、それに従い制限をすると操作が楽になる。 ☆操作の手順  ○可変幅制限はイコライザー操作画面の左側のスライダーで行う。   操作は入力平面の、上限値を上のスライダーで、下限値を下のスライダーで行う。  *audacityの各トラックに立ち上げられている信号は、多くの場合ノーマライズされ   た後のことが多く、その信号に+側の調整値を適用すると、クリップすることが多   い。ver,1.3.8以降では内部演算が完全浮動小数点化されたので、イコライザーの   処理結果がクリップしたように見えても、そのまま「増幅」を実行すると、クリッ   プしていない状態に自動的にレベル調整される。   しかし、この2段構えの処理がうっとうしいと感じる場合は、±12dBの可変範囲な   ら、+0dB,-24dBに読み替えてセットすることも一つの合理的対策だ。とくに   ver,1.3.7以前の愛用者にはその方が作業効率が良いだろう。   +0dB,-24dBの可変範囲では、処理を経るごとに低下していくと感じられるかもしれ   ないが、心配は無用だ。audacityの内部処理は32bit浮動小数点処理なので、少々   レベルが低下しても「増幅」や「正規化」を実施することで、容易に品位を保ったま   まレベル回復できる。トラックの表示を「対数波形」にしておくことで、どれくら   いのレベルなのか把握がしやすくなる。トラックゲインのスライダーが最大で+36dB   なので、ピーク値-40dB程度を下回るとモニターしづらくなるので、「増幅」などで   レベルを回復しよう。(このような作業のときには、表示を「波形(dB)」にしてお   くとレベル把握がスムーズだ。    ○+側の調整域は、アナログの時代には大活躍だったが、その理由の一つは基準レベ   ル(0VU)は決して最大レベルではなく、そこから上、さらに12〜16dBもの余裕が   あった(この余裕度は設計によりまちまち)ので、EQに関しても+側調整が有意義   だったが、デジタルでは取り扱える最大値が0dBで、ソースがそのレベルに最大化さ   れていることから、+側の調整域がどれくらい有効なのか検証しなおし、運用方法   を見直す時期にあるのかもしれない。  *筆者はこのような観点から、特別な事情のソースでない限り、EQの設定上限を0dBに   するように努めている。(つまり上のスライダーは絞りきりにセット)   特別な事情とはイコライゼーション本来の「等価」目的、つまりフォノ・イコライザー   の低域や特定のエンファシス、分布定数回路ロスの補正のように、「下げた」あるい   は「下がってしまった」ソースの「復活」を目的とするものを指している。    また、フラッシュメモリー録音機で外録してた、低いレベルのソース場合も、こ   の「事情」に当てはまる。  *旧来アナログの時代、例えばグラフィックイコライザーや、パラメトリックイコラ   イザーの全素子を+側、あるいは−側に寄せて平坦特性(つまりレベルだけが変化)   を得るという使い方はできなかったが、audacity搭載のEQではそのような使い方も   可能だ。    つまり、操作平面にポイントを一つ打っただけでは、単なるレベル調整として機   能する(あまり薦められないが)のだが、これは使用者が好きなところを±0dBとし   て定義できるわけで、それに従うなら、-12dBを0dBと読み替えても良いことになる。     ☆原則として上スライダー(イコライゼーション可変上限値設定)は絞りきり、0dBと   し、そこから減衰方向、あるいは本来0dBのラインを-12dBや-18dBに読み替えて   使用することで効率的セッティングが可能となる。実行手順は・・・   1)平坦ボタン(FLAT)をセット   2)上スライダーを絞りきる(0dBにセット)   3)新しい相対的0dB(-12dBとか-18dBに)を「ポイントを打つ」ことでセット   4)平坦部分(最低2箇所)を「ポイントを打ち」「固定」   5)可変部分を作る(いわゆる音作りの部分)   6)有効帯域以外を相対0dBに戻す(必要なら)   7)フィルター長設定スライダーを最適値に設定     *個々のポイントはドラッグし修正することが出来る。   *ポイントを消去するには、そのポイントをドラッグし、枠外でドロップすること    で消去できる。   *このように操作方法をまとめてみると、「カーブを保ったまま上下に移動」機能    が欲しくなってしまう。  ☆1)〜6)までが使用者の要求する「要求特性」だ。馴染みが少ない使用者が多いと   思うが、かつてフィルター設計者は微分方程式を片手に、この折れ線グラフで思考   ・設計を行う。   7)で実際に得られる(であろう)カーブをシミュレーション描画で確認できる。 ○どのように折れ線構成(要求)するか   使用者がどのような要求をしようと、audacityのイコライゼーションは最大限その  要求を実現すべく、最適化を図ろうとする。  例えば、比較的頻度の高い要求としてHPF(High-Pass-Filter = Low-Cut-Filter)が  ある。一定の周波数(Cut-Off-Frequency:fcと略す)以下を、一定の傾斜(遮断特性:  Slope)で下降させ、fc以上の通過帯域とfc以下の遮断帯域を分別する機能だ。  この傾斜は旧来次数で表され、最小単位が1次(=6dB/oct=20dB/dec)なので、その倍数  で表される。つまり-6dBの次は-12dB、その次は-18dB(/oct)と言う具合だ。 audacityのイコライゼーションでも、階段状の要求(後述)を行い、フィルター長を  低い方からゆっくり調整していくと、オクターブあたり6dB、12dB、18dbと飛び飛び  にしか実行曲線が変化しないことがわかるだろう。   中間の傾斜や-6dB未満の傾斜を得ようとすると話は少々複雑になる(複数の異なる  fcのフィルターを組み合わせて実現するようにエミュレーションされる)。   例えばHPFの用途・目的のひとつに、ウィンドノイズ(風雑音、吹き)などの不要成分  の除去があるが、その除去具合も重要な要素ではあるが、残される通過帯域の変質は  できるだけ少ないほうが望ましい。変質は音色の変化、周波数振幅特性、位相特性な  ど(高調波歪は論外)で表されるが、一般的に複雑な構成のフィルターほど管理(結果)  が難しい傾向がある。そのため、最もシンプルな構成になるように、整数次フィルター  (-6dB,-12dB,-18dBのような)が使用される。(audacityのEQは等位相なので、位相  特性は気にすることはないと思うが・・) 参照)「fil_-6dB.jpg「fil_-12dB.gif」「fil_-18.gif」   確かにaudacityのイコライゼーションの最適化アルゴリズムは、どのような要求に  も応えられるようにプログラムされて入るが、それは複雑さに対応することに主眼が  ある(最適化アルゴリズムには様々なものがある・・・)もので、上記のような単純かつ  低損失な要求を通すためには、使用者もある程度は作法を知っておく必要がある。    ☆フィルター設計者は、階段状の折れ線で思考する  HPFを例にとると、次に示す例はどちらもfc=1000Hz,-12dB/octを得ようとしたものだ。 参照)「fil -12_B.gif」「fil_-12dB.gif」   要求の仕方に大きな違いがある。  前者は-12dBの傾斜そのものを折れ線で要求し、その後フィルター長で調整。  後者は階段状の単純な要求をし、その後傾斜そのものをフィルター長で調整。   両者の違いは右下のフィルタ長の数値の違いとして表れる。  前者は「447」で、後者は「115」となる。前者は後者のおよそ4倍複雑な処理で実現  されていることになる。   得られたカーブ(薄緑線)はどちらも大差ないように見えるが、実はそのしわ寄せの  全ては「フィルターの肩」(傾斜が始まるところ)に集中している。  後者では美しい「ガウシアンカーブ」(ガウス分布=自然に存在する現象に多く見られ  る)を描いているが、前者では要求特性に近い不自然に折れ曲がったカーブを描く。  影響が大きく表れるのはカーブの美的曲線だけでなく、肝心な音の変質度が異なるこ  とだ。   また再現性やより高度な使い方を行う場合、斜め折れ線で指定すると、合うべきと  ころが合わなくなる。例えば帯域分割の手法がある。  ○帯域分割   ソースを帯域ごとに分割し、それぞれについて異なるパラメータで処理を行うこと  は日常的にも多く見られる。例えば多くのスピーカーでは、低音域と高音域を分割・  分離し、それぞれに適した振動系から放出する。いわゆる2ウェイ・スピーカーである  が、異なる振動系から放出された音は、空気中で再び混然一体となり「元通り」に  なって欲しい、という願いが込められている。   音楽CDのマスタリングと呼ばれるプロセスでも、一部の者たちは全帯域を4〜6に分  割し、それぞれにリミッターやコンプレッサーを挿入、最大エネルギー分布を効率よ  く得ようとする手法であるが、同様に「元通り」になってほしい願いが少しくらいは  ある。   本当に元通りになるかどうかの真偽はさておき、最初のステップからつまずいてい  てはどうしようもない。最初のステップとはこの帯域分割なのだが、どのように要求  すれば、元通りになるのだろうか。  *カットオフ周波数(fc)という概念   古来より用いられている理論によれば、そのフィルター特性を表す要点は、カット  オフ周波数とそれ以降の傾斜によって表現でき、同じカットオフ周波数を持つLPFと  HPFは周波数/振幅特性において相補(分割し合成すると元通りの平坦周波数振幅特性)  となる、とされる(周波数振幅特性が同じなら、同じ音と言うわけではない。周波数  位相特性という概念があり、あちらを立たせばこちらが立たず・・・難しい!!)。  ☆どれくらい違う(あるいは同じ)のかは専門書にゆずる。  この「相補」関係は様々な分野で、基本概念として活躍しているが、単なる音作りだけ  でなく、相補な処理による音作りが使えると、より高度な処理ができるが、そのため  にはカットオフ周波数が明示できなければならない。   カットオフ周波数とは「その周波数から下がり始める」のではなく、「下がりはじめ  てから位相差90度、振幅-3dB、というのが相場であったが、audacityのイコライゼー  ションは定位相特性なので全く位相回転が無い。そこで「相補」という部分を満たすよ  うに、fc=-6dB(正確には-6.0206dB) のポイントになるように自動計算されるようだ。  (「fil.gif」のような要求特性を作り、fc付近を見ながらフィルタ長を可変してみよ  う。この-6dBを中心に特性が変化する様子が見て取れるであろう)   このようにfcという共通要素を持ったLPF、HPFは最も整合性が良く、単一のfcによ  って(フィルタ長も同じ必要があるが)分割された信号は、ミックスすると最もよく  復元される(筆者の立場上、同一になるとは言えない)。   もし斜め線で構成された要求特性の場合、このような再現性は得られないので注意  すること。 <<数値入力の方法>>  audacityにはプリセットで、各種のレコード再生用のフォノ・イコライザー・カーブ が入っている。RIAAやDeccaなどのカーブなのであるが、これでレコードを聴くのだろ うか。おそらくセットの方法や、テキストによる入力の書式を示すチュートリアルでは なかろうか。そのテキスト入力(倍精度実数による数値入力なので、再現性もあるだろ う)のファイルは C:\Document and Settings\ユーザー名\Application Data\Audacity フォルダの”EQCurves.xml"が目標のファイルで、テキストエディタが無くてもダブルク リックするとエクスプローラで閲覧できる。ファイル名はリッチテキストだが、内容は プレーンテキストなので、メモ帳でもファイル開閉できるので、閲覧してみよう。(作 業効率的にはシェアウェアの「秀丸」が使用しやすいので入手を推奨) (もし非インストール版で「ポータブル・コンフィギュレーション」(バージョンとイン ストールの項を参照)セッティングにしてある場合には、上記のアドレスではなく、 audacity.exe(実行ファイル)のあるフォルダのportable settings フォルダ内に作成 されている)  おおよその書式はカーブの名称、pointのfが周波数を、dがゲイン(dB)を表す。 注意しなけらばならないことは、急峻なカーブを得るには隣接する周波数(pointのf= ) に同じ数値を書き込みたくなるが、あくまで「傾斜」なので、同じ数値を入力すると 「合体」してしまい、目的の傾斜はできない。傾斜なので、より高い周波数になるはず の周波数をわずか(小数点以下8位くらいを1増やす)に高く設定することで正常認識さ れる。  正常認識されたかの確認は、audacityに戻り、「効果」→「イコライゼーション」→ 「目的のカーブ」を呼び出し、目的の設定になっているかを確認する。逆に適当に(不 正確でも凹凸の数は正確に)pointを打っておき、その後EQCurves.xmlの数値のみ変更 をすると入力は幾分楽になる。また、このファイルに頻繁にアクセスする場合は、その フォルダのショートカットを作成しておくと楽になる。 (EQCurves.xmlがaudacityに読み込まれるのは、イコライゼーションの画面が開くとき なので、開いたままテキスト編集し上書きしても画面には反映されない) 一旦イコライゼーションの画面を閉じて、「効果」→「イコライゼーション」で表示し たときに新たなカーブが表示される。 注意 EQCurves.xmlファイルまで辿り着けない場合)  通常Windows PCのデフォルトセッティングでは、上記のフォルダにアクセスしようと しても、\Application Dataフォルダが隠しフォルダであるため、行き着くことができ ない。 このフォルダが見当たらない場合、Windowsのスタートメニュー→コントロールパネル→ フォルダオプション→表示タブの中の「すべてファイルとフォルダを表示する」にチェ ックマークを付け、「適用」で閉じる。ついでに「登録されている拡張子は表示しない」 のチェックを外しておこう。これで¥ユーザー名の中に\Applicatin Dataのフォルダが 表示できるようになったはずだ(Windows XP)。 <<マニアックな使い方・・・>>  その他の有用なソフトでも紹介しているefuという作者の作品で、WaveSpectra.exeと  WaveGene.exeというソフトがある。前者は非常に厳格なFFTによるスペクトラム・アナ  ライザーで、後者は高精度・多機能の信号発生ソフトである。   現在バージョンはどちらも1.40であるが、このバージョンから丁寧なヘルプファイ  ルが附属し、その中にも記載されているが、タイムストレッチド・パルス信号を利用  した直読できる周波数特性(周波数−レベル応答特性)の測定セットが追加されてい  る。   このセットを利用すると、各種のアウトボードの周波数特性を簡単に実測すること  ができ、特性グラフはそのまま文字列出力(リニアスケール、.wsoという拡張子だが、  書式的には.csvファイル=プレーンテキスト)できるので、簡単な変換作業を経れば、  audacity用のフィルターカーブとして転用可能である。(ただし正確なデータが得ら  れるのはアナログの機材に限られ、デジタルの機材ではいくつかの注意点がある)し  かし周波数特性を完全に再現したからといって「その」音色が再現できるわけではな  いので、過剰な期待はしない方がいいかもしれないが、データさえあれば名作アウト  ボードのプラグインのシミュレーションやマイクロフォンシミュレートの真似事くら  いはできる。 重要・注意)イコライゼーションでは、一度に指定できる処理範囲の大きさ(またはフ  ァイルの大きさ)には限度がある。この限度はビット深度やPCの搭載メモリーには依  存せず、ある程度マシンハードに固有のもののようで、マシンにより幅がある。(筆  者の周辺ユーザーでは単一トラック換算で、50分〜140分とばらついている)   この限度を超えて処理しようとすると、ランタイム・エラーの表示が出て、audaci  tyは終了するので、自分のマシンがどれくらいの長さの処理ができるか、事前に把握  することが望ましい。(処理範囲40分以下のマシンはこれまで見たこと無いが・・)   もし、この限界を超える場合や、エラー表示を見たくない場合は、ファイルやトラ  ックを分割して処理を行うと良いだろう。<関連:トラブルシューティング> 追加 ver,1.3.11以降)   上記のようなランタイムエラーにaudacityユーザーは長らく苦しんでいたが、  ver,1.3.11以降ではこの問題は大幅に改善したようだ。筆者のセットで確認する限り  では48KHzfs/24bitで4時間を超えるような長尺ファイルでも、何の問題も無く一括  イコライザー処理できている。   さらに高度な使い方・・・  旧世代において、有効なイコライゼーションの設定は聴覚による聴き取りから周波数  ポイントを割り出し、実際に音を聴きながら中心周波数を合わせ、その後必要なゲイ  ンを設定する、と いった流れで操作する。   今日においても実際の効き具合をヒアリングで確認することは最も重要な工程では  あるが、かつてとは幾分事情が変化している。(またaudacity ではリアルタイム操作  でイコライゼーションが触れないので、以下に述べる方法はもっと取り入れなければ  ならない)   audacityに標準で備わっている機能としてFFTによるスペクトラム表示、スペクト  ログラム表示がある。この解析機能は、専用の解析ソフトには及ばないものの、十分  実用的に活用できる。   トラック左のプルダウンメニューにあるスペクトログラム表示に切り替えると、そ  のトラックに含まれる成分が、縦軸周波数、色濃度で強さ、横軸=時間で表現される。  本テキスト附属の課題にある鶯とひばりの声のサンプルを読み込んでみよう。   全体表示ではよくわからないが、時間軸、縦軸ともに拡大していくと、それぞれの  鳥の声に対応したカーブが表示されていることが確認できる。課題はこの鶯とひばり  の声を分離するというものであるが、それぞれの鳴き声にはそれぞれの帯域があるこ  とがわかる。およそ3KHzを境にLPFとHPFを用いれば分離できそうである。(表示がう  まくできない場合は「増幅」でノーマライズしてみよう)  (また、表示が重く、素早く次ページ表示にならないのは、そんなものです)   課題回答としてはそれだけでは不十分なのだが、このように成分を視覚化すること  で有効な帯域を把握できることが理解できたと思う。<詳細は「分析」の項を参照>   音楽の基礎教育の中には「ソルフェージュ」という聴き取りの為の訓練があるが、  音響操作のカリキュラムの中には、そのような体系化されたプログラムは無い。そん  な中でよくも今までやってこれたものだと思う。   かつてFFTやスペクトログラムは装置自体が大変高価で、個人所有することなどお  よそ不可能(スタジオでも所有しているところは少なかった)であったが、現在はオ  ープンソース・ライブラリのおかげか、フリーウェアでも十分な性能を持ったものが  多数公開されている。筆者が推奨できるものとして、その他の有用なソフトの項で紹  介しているものは、いずれも「超」がつくほど高性能である。   これらの視覚化ソフトによる客観的裏づけとヒアリングを併用することは、聴能形  成上も大変有効と思う。どのみちPCベースによる作業では限りなく視覚化を推進する  しかないのだから。 <<等位相振幅フィルターのさらなる可能性>>  旧来のフィルタでは、振幅周波数特性を変化させると、必ず位相特性が変化し、 そのため使用方法にはいくつかの制限があった。 1)直列使用(複数回など)すると、位相回転が蓄積し、予定した結果や音色にならない  ばかりか、補正すことも困難になる。 1−b)とくに相補関係が必要な場合、例えば、プリ・エンファシス/ディ・エンファシス  したい場合など、復元しない。 2)並列使用すると予期せぬ結果や音色に変化し、情報を損ねやすい。  *並列使用はしたくないものであるが、ステレオL/R、トラック間では「モノとの互   換性」の想定が必要で、望まないものの結果的に並列使用になってしまうことが   多い。とくにポップスなどでのドラムスの録音・ミックスではこの問題との戦いと   言っても過言ではない。  **並列使用・並列処理とは、共通するソース(または同一のソースを2分配したもの)   の片側に「A」という処理を、「もう片側に「B」という処理を行い、その二つの   信号が加算されること。代表的な処理にリバーブ付加処理がある。  等位相振幅フィルターでは上記の問題から解放される。位相回転を伴わないので、 原理的に直列でも並列でも「単純加算」として扱うことが出来るからだ。  旧来は絶対に不可能だった使い方として、すでにミックスが出来上がった2チャ ンネルソースに対して、そのマルチ・ソースが残っていれば、特定のパートをさらに加え たり、除去したり、トーンの補正を加えたりすることが出来ることになる。  例えば、出来上がっているミックス済みのものから、歌の高域だけを補強追加する ことや、逆に完全な除去(いわゆるカラオケ作成のアルゴリズム=L-Rのようなものと 異なり、完全なステレオソースとして除去作成できる)などの作業ができる。  先出の生ドラムスのミックスなどでは、正確なタイムアライメント(例えばスネアを 中心とした時間補正)を行っても、イコライゼーションした時点で、その努力が木っ端 微塵になっていたものが、コヒーレントを保ったままで作業可能となる。 1−c)旧来は制限のあった直列使用だが、位相特性の一定保障があるなら、一度で  できないイコライゼーション処理を複数回に分割処理しても、32bit浮動小数点処理  とあいまって、最低の損失で行うことが出来る。  *複雑な処理とは帯域のある部分の処理の傾斜と、他の部分の傾斜が大幅に異なる場  合を指す。低域はゆるやかなロールオフで、高域の特定部分には非常に高いQのノッチ  フィルタを用いるなど、整音処理では頻繁に必要なケースだ。 **)しかし、全く位相回転を伴わないコノヨウナモノをフィルターと呼べるのだろう  か。コノヨウナモノにはそれにふさわしい作法を考えねばなるまい。 注意!!  現在(ver,1.3.11)の時点で、等位相性は極めて高いといえるが、極端なセッティング では多少の位相差が現れる。上記の記述内容はあくまで可能性であり、実際にそのような 手法を実施する場合は、必ずリサージュや同位相性の評価をヒアリングとともに行い、 リハーサルも実施することを強く推奨する。