分析のススメ                         (C)Y.Utsunomia 2008-2010 *モニター音の問題  スタジオとは単に演奏し録音する場所を言うわけではない。 そもそもラテン語のstudium (勤勉,熱意)から派生した語で、創作場などの意味があり、 すなわち主体は考え→作る、場なのである。録音環境として最も重要なことは、もちろん 録音機やマイク(現代では音源やDAWか)の設備も必要とは言えるが、正しく聴き取れる 機能が備わっていることが何より必要である。  録音スタジオにおいて他の機能はともかく、モニター環境が正常でないと何の作業も できない。筆者もいくつかの録音スタジオを設計してきたが、最も気を使い、予算配分で 優先的に解決すべき問題がモニターである。ミキサーやレコーダーに何を採用しようと そのスタジオのカラーを決定するのはモニター環境である。コンピュータの導入によって (ポップスの世界ではそれ以前から)高性能ラージモニターの使用率が下がり、ろくでも ない小型モニターと称する拷問具を用いて、ひどい音環境で作業しなければならないこと は嘆かわしい限りである。なぜならその環境で作成された音楽の品質は、間違いなく「そ の程度」でしかないからだ。操作者はモニターからの音を聴き、思考し操作に反映させる からである。  現在の一般的DAW環境を見ると、個人所有のスタジオではとくにこのモニター環境に問 題があることが多い。良い音環境が好まれない理由はないので、手本とするスタジオや アーチストの環境をまねた結果か、あるいはそのような啓蒙をしている媒体があるのかも しれない。もう一つ考えられる原因は、すぐれたモニターを用意しても、それに見合う 信号原がないことも問題かもしれない。PCが扱うことのできるデータ品質は、スペックか らはアナログ時代からは想像もできないほどの高品位であるにもかかわらず、それを実際 の「音」に変換しようとすると様々な壁があり、現実的にPCの標準入出力デバイスでは、 「カセット・テープ」と大差ない品質の音しか得られない。これは、PCのマザーボードに 搭載されているD/Aコンバータの品質がその程度ものだから、というだけではなく、PCは その設計が事務機であり、一定間隔で正確にクロックを発生することすら困難(固有の ジッタ=時間軸上のゆらぎ)で、また動作条件によっては平然とサンプル落ちなどが発生 するからである。(これらの問題はA/D、D/Aコンバータを外付けしても、それだけでは解 決されない)  この文章はaudacityを中心に作文されているが、audacityであっても同様で、その問題 はaudacityの設計者も同様に把握していると思われる。それゆえにaudacityは中途半端な リアルタイム性を切り捨て、オフライン処理に徹しているのだと筆者は考えている。  しかし、いくつかの(筆者に提供されている)DAWソフトと比較してもaudacityの録音・ 再生音はトップレベルに位置しており、コンバータを外付けすればそれなりに改善するこ とができる。しかしそれでも正しく設計された旧世代スタジオで得られるモニター音には 遠く及ばず、筆者のスタジオでもスタンドアローンの再生装置に転送し、はじめて真の 音を聴くことができる。  このような問題もあり、多くの若い使用者は「音」ではなく、ディスプレーに表示され た波形を見て作業を行うのだと思う。しかし音楽作品は聴覚に作用するものが全てであり、 どのような制作環境を使用したかどうかは何の関係もないのである!!(にもかかわらず 制作環境のモニター音はいただけない!!!) *音楽的職能の問題  かつて録音スタジオでは演奏家のみならず、技術者にも相当なレベルの音楽的職能が 要求された。音楽的職能とは音に対する操作反応のことであり、シビアな問題では「パ ンチイン」「パンチアウト」をはじめ、「頭だし」や「マーキング」、「フェーダー操 作」などもこれにあたる。  音楽の演奏に等しく正確な反応やタイミングが要求されるのであるが、実際に「パン チイン/アウト」などでは、小節の頭で良いわけは無く、16分音符一つ分早く(俗にい う裏の裏)+レコーダーの反応速度を考慮し操作しなければならなかったが、もちろん この操作を自在に行えるようになるのは、一握りの音楽的才能に恵まれた者だけである。 このため音楽演奏よりも録音機器操作の方がおもしろくなり、転職した者も多数存在す る。  現在のデジタル機器で、このような操作に耐えられるレコーダーは限られており、そ の例としては別項で触れているAlesis社HD24などがその代表と言える。 (ハードディスク・レコーダー考 参照)  多くのDAWをはじめとするデジタル機器で、リアルタイムをうたっていながら音楽的 職能を生かすことができないことにはいくつかの理由がある。入力された操作の処理以 前に再生することでマシンが手一杯だからだ。そのための遅れも一種のレーテンシーと いえるが、画面の書き換えですら相当にパワーを消費する。プログラマーはそれらの処 理に優先順位をつけ快適さを追求しようとするが、全体としては不確定性理論よろしく、 操作の反応の悪さにしわ寄せがくるようだ。実際、画面上のレベルメーターが正常に振 れているDAW(プラグインはのぞく)はほとんど無い。  audacityは比較的反応は良い部類になると思われるが、実際に出力されている部分よ りは相当に遅れてカーソルが表示されている。もちろん「ここ!」というところでクリ ックしても正確にその場所にマークを打ったり停止したりすることはできない(それは 専用機であるHD24やR16にまかせるべき)。   <<<ここまでをまとめると、PCベースDAWの再生音の信憑性は怪しく、また反応速度  にも期待できない難儀な道具と言える>>> ***ならばそれを補う手段を確保しなければならない。*** ________________________________________ 注)以下は筆者も試みとして導入している手法であり、十分に確立された手法ではない。  また、最終的にヒアリングは必須であり、それを軽んじるものではない。  ここまでの要点は、PCベースの場合、旧来からの作業の指針であるモニター聴取に 限界があり、 1)正確な聴取には何らかのストリーミング装置によるステップが必要であることと、 2)従来のモニターによる検聴に替わる、点検あるいは情報取得方法を導入する、 必要があり、それを怠るならPCベース導入以前の音楽品質と同等あるいはそれ以上の 作品を輩出することは困難と思う。音楽品質とは物理特性である、S/N比や帯域、歪特性 の事ではなく、イマジネーションの表出・実現度合いや、それらの相互連携などによって 築かれるものだ。  音楽品質が高ければ、永きに渡り人々に影響を与え続け、同時に優秀な後進やオーデ ィエンスを育てる。現在の音楽産業がこの点において、完全に目的である音楽品質を 見失っていることは、今日の体たらくを見れば明らかであろう。決してコピーが野放し になっているからではないと断言できる。(そのコピーすら正常にできているか怪しい し、プロとしての基本は、同じ音のするコピーを作成できることとも) 1)の作業は、すべてをPCベースで行っている者には、面倒で不合理に思えるらしい。 しかし、多くの作業が極めて高速にできるようになった今日、そのくらいの手間をかけ モニターすることは、なんらの不合理性も無いと思う。実際に聴き取りの正確さが異な るわけだし(ここに異論があるらしい)、どのオーディエンスよりも良い条件で検聴 することは、プロフェッショナルの義務(この論理にも異議があるらしい)と思う。  この時点ですべてのDAWは「リアルタイム性」を失っていると言える。 2)やっと本項の主題だ。  audacityには標準で各種の分析機能が搭載されている。主要なものは A)レベルの推移       :波形表示、対数圧縮波形表示 B)スペクトラム       :スペクトログラム表示、FFT C)ピッチ解析        :EAC D)コントラスト解析 E)ビート解析        :ビートファインダー F)休止あるいは区分解析   :Regular Interval Rabel、Silence finder                Sound Finder など   これらを活用し、モニターが不十分な音品質であることを、何とかカバーしようと いうことが狙いだ。 これらの効用から簡単に分類すると、 イ)方針判断、パラメーター決定支援系と ロ)作業効率向上系 に大別できる。どちらも結局は操作者の判断を支援し、高率化することに貢献するが、 前者(イ)は聴覚を拡張したり、潜在的成分を見抜くことに、後者(ロ)は時間のかか る聴き取りながらのラベル打ちを自動化したものが多い。 前者(イ)に属するものにA)、B)、C)、D)が、後者(ロ)には、E)、F)が属する。 ☆本項の目的は不十分なモニター環境を、補填しさらに拡張することを目標としてい るが、audacityに内蔵の分析機能だけでなく、その他のソフトウェアを導入することで より強力に分析を支援できる。 ○FFT技術   これらの分析は、現在のコンピューティング(計算能力)にモノを言わせた手法で、 FFT/DFT技術(フーリエ展開/合成)をベースにしたものがほとんどである。フーリエ理 論を手短に解説することは筆者には困難だが、正弦波を基本構成単位として考え、任意 の数列(波形)がどのような正弦波の集合によって成り立つか、を算術計算によって 得る技術である。逆に要素である正弦波を寄せ集めれば、元の任意波形を合成できる、 という可逆変換の理論だ。合成はともかく、解析式は多重の回帰計算なので、とにかく 計算量が多く、今日の計算速度が得られる以前には、大変費用のかかる分析であった。  特徴は、正確な数列(A/D変換)さえあれば、後の精度は純粋に「計算」という論理 性に支配されるので、優秀なA/D変換と計算速度さえあれば実用的な分析が可能になり、 その精度は、生耳のそれを凌ぐという意見もある。少なくともダイナミックレンジの 解析能力においては、確かに生耳を凌ぐ解像度が得られる。  反面、周波数分解能を上げようとすると、より詳細な(多くのサンプル数)数列を 必要とし、この分解能とサンプル数(FFTサイズ=時間軸の厚み)は相反関係にある。 (つまり、分解能を上げると、位置精度が落ちる)  かつては大変高価で、気軽に利用できるものではなかったが、現在は非常に優れた ソフトウェアが無料で公開されており、大いに利用すべきである。  分析と合成を組み合わせたものとして、audacity標準搭載のイコライゼーションが ある。 ○どのようなバリエーションがあるか    名称           略号  1)スペクトル表示     :SP  1−b)3次元スペクトル表示 :3dSP  2)スペクトログラム表示  :SG  2−b)ケプストラム表示  :KP  3)ピッチ解析表示     :PT  4)リサージュ       :RJ   ○そのほかの有用なソフトで紹介のソフトと表示タイプ、動作形式 ソフト名称      表示タイプ    動作形式     再生時のファイル形式 WaveSpectra      SP、3dSP、RJ   リアルタイム、再生、オフライン   ALL <WS 1.gif><WS 2.gif><WS 3.gif> fftwsg.exe      SP、SG、KP    再生、リアルタイム      16bit <fftwsg.gif> WaveTone.exe     SG、PT      再生、オフライン       16bit  <WT.gif><WT tempo.gif><WT key.gif> pmonitor.exe     PT        リアルタイム         16bit <pmonitor.gif> vshifter.exe     PT        再生、         16bit LevelOfLineIn.exe   SG、RJ      リアルタイム ○audacityとの組み合わせ  主に動作形式によって組み合わせ方法が決まる。  *リアルタイム動作が可能なものの場合は、同時起動しデバイスを設定すると   そのまま表示が可能である。   しかし、ソフトによって、非常に多くのCPUパワーを消費するものもあるので、   同時起動する場合は、CPUモニター(TinyMon.exe)などで余力を監視する。   (「測定と自己校正」の項を参照)  *再生と表記したものは、一旦ファイル出力し、そのファイルを目的のソフトウェ   アで読み込むことで表示を得る。   面倒に感じるかもしれないが、得られる精度や安定性は、リアルタイム動作と   比較し、格段に高い。こちらがそのソフト本来の性能。  *オフライン動作できるものは、再生と異なり、スローモーションやステップで   動作することが可能で、より詳細な情報把握が可能。  **いくつかのソフトウェアどうしで、相性の悪いものがあり、同時起動できなかっ   たり、あるソフトの後には別のソフトが起動できないこともあるので、注意。   後者の場合、PCを再起動すると起動できるようになることもある。 ○何をどのように利用するか。  モニター聴取によって取得していたものを、これらのソフトに代行させ、視覚情報と して取得するわけだが、これらの測定ソフトの本来の出力形式は、定性的視覚情報や、 数値としてのものが多い。もちろん音の質感や音楽の表現そのものを直接解析すること はできないし、(仮にできる道が開かれたとしても、「音楽家」には受け入れがたいだ ろう)あくまで間接的な対処に終始するものかも知れないが、筆者が現場に投入し、 実績を上げているものを中心に解説する。 1)ノイズの解析  音楽制作においてもS/N比の概念は明確に存在するが、ノイズとシグナルそれぞれの 定義が多少異なっている。ノイズとは制作目的にとって不要な信号全てを、シグナルと は同様に必要な信号全てを指している。抽象的と考える読者も多いかもしれないが、制 作者の使命は普遍的にS/N比の向上なので、このように定義が拡張される。ノイズ・ミュ ージックと呼ばれる分野があるが、そもそもは旧来の楽音と騒音(ノイズ)という区分 に根拠があり、騒音に主体(必要な要素)があるものを指している。しかし、主体であ る以上厳しく管理され、S/N比の向上に注力されるわけで、その点でこのような定義の 拡張が必要になるのだ。  また制作者の力量とは、このS/Nにそれぞれ何を割り当てるのか、にかかっており、 弱い作品ほど、S/Nの概念(ルール)が虚弱な傾向がある。  しかし、録音そのものの業務(アマチュアならその工程)においては、わりと一定し た(例外はあるが)認識で取り扱われ、故に物理的ノイズ解析は有効と言える。 注記)audacityのイコライゼーションに熟練してくると、その高性能さから、どのよ  うなノイズでも抑制できそうな錯覚に陥りがちだが、原則としてノイズの混入は  不可逆変化であり、完全な除去はできない。したがって、そもそもの混入が発生しな  いよう努力すべきものだ。  録音や編集、加工などの作業において、望まないノイズの混入は大敵だが、マルチ 録音の現場では、従来、容易には撲滅が困難であった。低い周波数の電源起因のハムな どでは、ケーブルのさばき方や機材の配置の仕方に一定の法則性があり、熟練すれば 対処もそれほど困難ではないが、波長の短いノイズの場合は、一定の法則性が無く、そ の場でその法則性を見出し対処する必要がある。  波長の短いノイズの一つに、ビデオ信号(水平同期信号)起因の15.6KHzがあるが、 なかなか手強いノイズの一つだ。電源やアース周りからの浸入や、空間そのものに「音」 として存在するものなど、完全に排除するには、映像系の機材をすべて排除すればよい のだが(実際に純録音スタジオでは実施されている)、実際には商売上の問題もあり、 なかなか実現ができない。 <H_noise_2.gif を参照>  この例は超メジャーのCD作品だが、これで現場で抑制後なのである。この例に限らず 手近のCDをチェックしてみてほしい。もちろんこのレベルあれば十分に聴こえる。 これ以外にも、スタジオ(録音で音を出す場所。ミキサーなどが置いてあるのはコント ロール・ルーム)に設置されている機材のスイッチング電源部から数KHzの音が出てい たり、デジタル機材どうしのクロックの干渉がギターアンプから出ていたり、様々な 出来事がある。  耳で聴いて発見できることが第一なのだが、モニター環境が虚弱だと見逃したり、 対処が遅れたりする。また、音が出ているときのみ出現する厄介なものもあり、これな ど「マスキング効果」なのか「単に耳の疲労」なのか、後になって気付くこともよくあ る。歴史的に最も激しく出てしまった有名作品として松任谷由美の「守ってあげたい」 のオリジナル版があるが、数KHzの正弦波でレベルは最大−10dBにも達し、曲のほぼ 全編にわたり確認できる。(CDのリマスター版では消去されているが)    活用の仕方はいくつかある。まずミキサーのメイン出力(あるいはモニター出力)に USBオーディオインターフェース経由で、FFTソフトの走るPCを接続し、常時観察してい ると、様々な異変に気付く。例えばWaveSpectra.exeではレベルとリサージュをスペク トルとともに見ることができるが、先の水平同期信号は言うに及ばず、クロックの干渉 や、ノイズのやってくるチャンネルの特定、またそれらの効果的排除が実現している。  とくに波長の短いノイズに関しては、機材やマイクロホンやケーブルの置き位置を たった数cm動かしただけで解消したりすることは普通に起こる。  また、ドラムのオーバートップなど対象性を要求されるセッティングでは、耳だけの 判断よりも、スマートに対象性を得ることができる。  小型のノートPCにセットしておけば、スタジオやライブステージなどへも「テスター」 として持ち出すことができ、対処はより早い。  筆者はこの目的のためだけに、パナソニック製M-34(pen-3 400MHz/933MHz)を専用 セットとして5台セットアップし活用している。このノートPCは軍用や土木などの用途 に開発されたモデルで、現在のPCの能力から見ると随分非力(発売当時も)なのだが、 完全な自然空冷、マグネシウムのダイキャストボディーで、不要電磁波輻射も少なく、 スタジオでも安定使用できる(audacityで録音・編集作業に使用するには少々非力すぎ るが)。非力でも安定に動作できることは心強い限りだ。ちなみにUSBオーディオイン ターフェースはディスプレー裏にマジックテープで一体化してある。 重要)現在PC(ノートを含め)は非常に価格が安く、目的に応じて「専用化」することが  コスト的にも可能で、しかも専用化することで安定動作が期待できる。とにかく、  様々な現場に、気軽に持ち出し、鍛え上げる(主に使用者を)ことが肝要だ。   また解析結果を見てすぐに様々な情報を取得できるわけでは無いので、普段から  オーディオ再生に併用し、自分の感覚や知識と関連付けておく必要がある。とくに  WaveSpectra.exeやpmonitor.exeは楽器演奏の友としても、上達の支援になるという  評判はしばしば耳にする。そんな時代なのだ。 ○演奏の支援  読み取りにある程度の熟練が必要だが、これらのソフトは演奏の解析にも絶大な威力 を発揮してくれる。pmonitor.exeやfftwsg.exe、WaveTone.exeなどがそれに該当するが、 前者はリアルタイムで動作するピッチ表示ソフトで、とくに歌や楽器の小節(こぶし) の良否や、その打ち合わせなどで、目に見える形で確認ができることは画期的だ。 fftwsg.exe、WaveTone.exeは、どちらもスペクトログラムをベースにしているが、 前者はケプストラム表示に対応しているので、イントネーションや発音を、後者は楽曲 解析を目標としたソフトなので、様々な観点からテイクの良否や打ち合わせに活用でき る。  規模の大きい録音制作では、準備段階でしばしばスコアの作成を余儀なくされるが、 その支援としても、とくに採譜作業では強力に機能してくれる。自分が馬鹿になってし まうのではないか、と心配になるほどだ。 重要)前項と同様に、普段から使い慣れていないと、何を読み取ればよいのかわからな  いだろう。ひとつの職種として音楽により近い、分析専門業は成立できるのではなか  ろうか。もちろん作曲、アレンジ、演奏、録音、音響学の相互の橋渡しができなけれ  ばならないので、育成はどのようなメソッドになるのだろう。 ○エフェクトのパラメータ決定の支援  イコライゼーションのカーブ、エコーの間隔、リバーブの各パラメータ、など旧来は 使用者の感覚で判断していたものであるが、相当に熟練した者でも、長時間のスタジオ 作業では感覚は徐々に低下し、明晰な判断は難しくなってくる。まして熟練していない 場合はなおさらで、そんなの使わなかった方が良かった、ような結果になることも。  とくにaudacityでの作業はオフライン処理なので、イコライゼーションひとつとって みても、聴きながらつまみを触ることはできない。イコライゼーションのカーブをいき なり書く必要があるのだが、ヒアリングだけで決定することは不可能ではないが、いさ さか能率が悪いと言わざるを得ない。  先のノイズを抑制する場合は、実に強力で、そのノイズの存在する周波数や帯域を 直読できるので、的確なセットを書き込むことができる(無論ある程度の慣れが必要)。  audacityのイコライゼーションが音作りにどれくらい有用かは、議論の余地があるが (定位相であるため)、少なくともそもそも成分の無い部分に、無駄処理はせずにすみ そうだ。また録音時に、あらゆる楽音(ノイズを含め)は、全帯域のはずなのに、異様 な偏りや、帯域の欠如があると、後で音作りに障害がでるが(とくにエレキギターやベ ースなどで)、事前に確認できるため後の祭りにならずにすむ。人間の聴覚は、ピーク などの「有る」ことには敏感だが、ディップなどの「無い」ことには気付きにくく、故に 熟練者でも見落としがちなのだ。意味がわからない場合は経験を積んでください。 (DIやギターアンプ/マイクロホン収音での帯域は極めて狭い上、倍音構成が音色以前 に不自然な分布になりやすい)「無い」ものは救済できない。 ○逆に、分析をaudacityによって支援する(単周期解析)  audacityをどのような用途に使用するかは、使用者次第なのだが、創作の支援に これらの分析ソフトの本来の目的である分析をaudacityによって支援することもでき る。  FFTで楽音を解析していると、本来見えるはずのものが、FFTが定積分であるがために 見ることができず(理論から当然なのだが)、歯がゆい思いをすることがある。 つまり、「ここ」が見たいのに、FFTで解析すると「ここ」を含むFFTサイズ分を積分 した結果しか得られない。ぼやけているのである。  一例を示そう。(サンプルはボーカルの一節) <uni-cycle_2.gif を参照>  通常FFTで解析すると、波形上はそのFFTサイズ分のサンプル数が必要で、この図の 場合、8192サンプルを示している。  波形の一周期は171サンプルなので、47.9周期あることになり、その解析データは、 約50周期分を積分した形で現れる。解析結果を見てみよう。 <uni-cycle.gif を参照>(ただしFFTサイズは16384)  赤線がその結果である。おなじみのだらだらとつながった、解析結果である。 50周期もあると、周波数は揺れ動き、レベルは変動し、それが積分されるので、ぼけた 像しか得られないのである。  audacityで一周期(171サンプル)を切り出し、リピートで繰り返し、それをFFT解析 したものが、<uni-cycle.gif>の青線表示だ。編集画面は <uni-cycle_3.gif を参照>  実にシャープでS/N比のとれた画像ではないか。 一部の高額なFFTハードやソフトには「エンハンス」と言うモードがあり、飛び飛びに なら類似の結果を自動的に得られるが、隣接した一周期ずつの解析は容易ではない。 実際隣接したものを重ねて解析すると、基本波と倍音がそれぞれ揺れていることがわか る。また、非整数次倍音と随伴騒音も一目瞭然だ(横軸はリニアの方が見やすい)。 <uni-cycle_lin_1.gif><uni-cycle_lin_1.gif>  この解析が必要な理由は、単なるイコライゼーションの操作では音作りに限界があり、 より高度な音作りには、基本波/倍音と非整数次倍音、随伴騒音の分離制御が不可欠で、 筆者の歴代商業作品の多くでは、この分離制御によって差別化を図っている。  ちなみに随伴騒音は、いわゆる楽音の発音前からバースト状に発せられており、切 り出すなら基本波立ち上がり直前部分だろう。80年当初、この作業に1音当たり7〜8時 間かかっていた事を考えると、audacityでの作業ならわずか数分で完了だ。  この解析方法を、その道の巨匠に提案したときには散々な評価だった。何が一周期 なのか客観性が薄いというのだが、だからこそ取り出したいものを選択できるのであり 定積分の弱点を補うことができる。ちなみに一周期として定義した波長以下を、論理 排除したことになるので、その部分は見てはいけない。 *不適切な一周期を取り出すと、ループした際に継ぎ目が汚く、スペクトルが「拡散」 するため、異常に倍音の多い解析結果になる。  audacityにはこのような作業の支援をするのに役に立つコマンドが、多数含まれてい る。「ゼロとの交差部分をみつける」コマンドや、タイムシフトツールであったり、 もっとも簡易には、Shiftボタンを押しながらの再生だ。任意周期をマークし(ついで にラベルも)、shift+再生で、インスタントに発音し、WaveSpectra,exeなどで観測す る。  ただしこのShift+再生ではときに継ぎ目が汚く、表示がふらつくことがあるが、 そのような場合は、波形表示をズームダウンすることである程度改善が期待できる。 正確には指定一周期をコピーし、別トラックにペースト、さらにリピートで必要周期 (通常数十から数百サイクル)増殖し、それを再生・解析(またはファイル出力、FFT で読み込み解析)を行う。  ちなみに画面下のカウンタは「長さ」にしておくと、サンプル数の確認が容易だ。  一周期はこのようにわずかのサンプル数しかなく、より詳細な結果を得るには不十 分(上記の例も正確には171サンプルジャストではない)なのだが、audacityはサンプ リング周波数の設定が自由なので、より高いサンプリング周波数に変換することで、 より真実の単周期を確定することが可能になり、また解像度も向上する。  この手法のメリットは、解析するサンプル数とFFTサイズの組み合わせが自由である ことで、単周期のみならず、さらに細かい部分(バースト状の随伴騒音単体など)の 解析も自由自在だ(もちろんフィルタリングとの併用は必須)。 ○ラベル機能を利用した、定サンプル数位置指定  このような解析を行うのに、ラベル機能を併用し、「ラベルのみのタイムシフトモ ード」(編集1のタイムシフトツールの項を参照)や非連動モードで、トラックのみを 移動すると、単周期の確定を「0との交差」に頼らず、任意部分で行えるようになる。 参考)このような用途での使用も、トラックの表示は、対数圧縮波形表示が大変便利 だ。