スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

「サンプリング定理」その深淵なるセカイ

14/11/20初稿

 ハイレゾについて考えていたらここにたどり着きました。
 新しい地平が開けたカンジします(笑)。

 以下、私が理解した内容を記してみます。間違ってたら申し訳ありません。


■シャノンさん&フーリエさんと向き合う

・サンプリング定理を改める
 これ、単純に見えて凄く奥深い定理だったんですね。
 そして、定理自体は数学的理論であり、デジタルオーディオはそれを“応用したもの”であることを理解すべきだったんですね。
 つまり、この定理を大前提としつつ、デジタルオーディオの実際における現実的破綻(理論との乖離)への対応機能を理解する必要があり、それこそがDAC動作としての音質に支配的影響を与えていたのですね。

 といってもナンノコッチャですよね。で、まずは基本から。
 本件については、TI社のDSPトレーニング「第2章 デジタル信号処理入門 (サンプリング定理/エイリアシング)」は解りやすいと思います。
http://www.tij.co.jp/dsp/jp/docs/dspcontent.tsp?contentId=53936

 これによると、

「取り扱う信号が周波数 fc より高い周波数成分を持たないとき、サンプリング周波数 fs は
  fs≧2fc
であれば、サンプリングされた信号から元の信号は完全に再現される。」


とあります。

 一見単純に見えますがよく考えてみると奥深い定理ですね。例えば、サンプリングされた信号は不連続(離散的)なのになんで“完全に再現される”のでしょう? 実はそれ長年疑問だったのですが、今回考えてやっと腑に落ちた気がします。

 何気なく読んじゃってますが、実は「取り扱う信号が周波数fcより高い周波数成分を持たないとき」という条件が大変重要だったんです。
 人工的な信号であればそれは可能ですが、音楽などには広範囲の周波数成分を含みます。が、CD規格を例にすれば、「22.05kHz以上の周波数成分を持たない」ことがこの定理の“大前提”、必須条件なのです。
 ですので、具体的には

・AD変換時には「22.05kHz以上の周波数成分をカット」することでデジタル化
・DA変換時には「22.05kHz以上の周波数成分をカット」することで原アナログ信号を復元

しているのです。

 しかし、何でAD変換時に22.05kHz以上の周波数成分があると44.1kHzでのサンプリング定理は成立しないのでしょう?
 また、何でDA変換時にまたカットする必要があるのでしょう? AD変換時点で22.05kHz以上の周波数成分はカットしているのに…? アナログだったらカットした後はカットされたままですよね。

 実はこのあたりが「デジタルオーディオ」のキモでした。
 そして、それを理解するためには、そもそも「“周波数成分”とは何か」を理解する必要がありました。

・周波数成分とは
 やはりTI社のページが解りやすいでしょうか(「フーリエ変換」としての解説ですが)。
http://www.tij.co.jp/dsp/jp/docs/dspcontent.tsp?contentId=53938

 かいつまんで言うと、ある時フーリエさん(フランス在住)という方が、

「どんな信号波形でも、それをいくつかのサイン波(それぞれ異なる周期と振幅を持つ)の重ねあわせに変換できることを発見」

したのです。これを利用し、波形を「構成するサイン波の周波数分布」分解したのが周波数成分(スペクトル)です。

 ただし、“どんな波形も~”が成立するのは「無限の周波数まで想定した場合の数学的理論として」です。デジタルオーディオにはデジタルの事情があるのです。例えば矩形波の垂直立ち上がり部分は周波数無限大までのサイン波を足し合わさないと表現できませんが、現実に扱える周波数は有限です。よって、例えば、22.05kHzまでの周波数成分しか持たない(と定義されている)デジタルデータでは「立ち上がりは22.05kHzのサイン波以上に急峻には表現できない」ということになります。詳しくは後述します。

・離散データなのに「完全に復元できる」のは何故か
 本項がサンプリング定理のポイントの部分かと思います。

 逆説的になりますが、サイン波はその周波数成分しか持ちません(純音といいます。それが周波数成分の定義ですから当たり前?)
 ですから、22.05kHz周期を示すデジタルデータがあった時、そのデータが示せるアナログ波形の最高周波数はサンプリング定理の前提条件から「22.05kHz」となります。そして、その波形はサイン波です。


 具体的にみてみます。以下の図のような「★」サンプルがあったとします。アナログ化するとサイン波になるワケですが、例えば三角波や矩形波は何故ありえないのでしょうか。
サイン波再現イメージ
 この考察ではDACチップのアナログ変換速度は無視できるほど速いとします。また、矩形波は半周期ズラしてイメージしてもいいと思います。

 「★」サンプルは「22.05kHz以下の周波数成分しか持たない22.05kHz周期の波形」を示していることになります。
 サイン波以外の波形は22.05kHz以上の周波数成分を含みます。
 よって、このサンプルは2個しかないけれど表現しているのは「22.05kHzのサイン波」しかあり得ないことになります。

 そして、22.05kHzという“サイン波の最小単位(最高周波数)”を復元できるならそれ以下の周波数も復元可能ですから、数多の波形はフーリエさんの言うサイン波の重ね合わせで再現できることになります。

 「22.05kHz以上の周波数成分はない」という前提があるからこそ成立する、という点がミソです。
 これが「断続的(離散的)デジタルデータから連続的アナログデータに“完全に”復元できる」理屈の基本だと思います。

・注記:説明とリクツのギャップ
 本項15/12/06追記。
 上記は解りやすさを優先した説明です。実際のCD再生のリクツではありません。
 ちょっと考えると、「★」が復元すべきサイン波の最大最小ポイントだと特定できないことが解ると思います(同じ周期でもっと振幅が大きなサイン波も想定できます)。逆に言うと、22.05kHzのサイン波を44.1kHzでAD変換したら、最大最小点を必ずサンプリングするとは限りません。例えばゼロクロス点でサンプリングしたら“無音”になっちゃいますよね(*)。
 つまり、「fs≧2fc」が成立するのは「位相とサンプリングタイミングの関係」も規定されている場合に限ります。ですので、数学はさておき現実のデジタルオーディオにおいては「fs>2fc」である必要があるハズです。サンプリング周波数の1/2“以下”ではなくて“未満”が完全に再現できる、ということかと(さらに現実的には以下に記す通り“未満”どころではありませんが)。

*:例えば≪WaveGene≫fs=2fc設定で生成したデータは無音(オールゼロ)になります。


■数学と現実の違い

・周波数成分は数学的説明では無限だが現実には有限
 多くのフーリエ変換の説明では「サイン波を無限に足し合わせていくと複雑な波形や矩形波などが再現できる」ことを表現していると思いますが、これは数学的フーリエ変換において“無限周波数を扱う時の概念”です。
 「有限の周波数しか扱えない現実」を抱えたデジタルオーディオにおけるフーリエ変換(周波数成分)の説明ではないという点に注意が必要でしょう

 「現実のデジタルオーディオ」では、電圧(電流)変換した直後の階段状波形をアナログLPFに通すことによって“サイン波の集合体としてのアナログ信号”に復元します(そうなるようにLPFを組む。数学的にはsinc関数のたたみ込みに相当する処理を電気的に行う)。
 このLPFは「リコンストラクションフィルタ」と呼ばれることもあるようです。その名の通りの役割ですね。

・実際の「リコンストラクション」を見る
 以下に実際のDACシステムからの出力例を示します。数字的に判りやすい24kHz系で。
 2448をアナログ再生したものを192kHzサンプリングでデジタル化することで「アナログ波形観測」に見立てた波形です。超粗いデジタルオシロ?(苦笑)。 4倍の解像度があるのでとりあえず代用になるかと。AD変換側のフィルタ事情なども含まれてしまいますが、無視できると仮定します。
 まず、12kHzサイン波です。“最大最小とゼロクロスの4サンプル/周期しかない”のに、サンプルポイントを直線で結んだような波形ではなくちゃんとサイン波が再現されているのが判ります。念のためですが、この図の「・」は192kHzでADしたサンプルポイントです。
sin12kHz2448.png
 デスクトップPCオンボードサウンドのLINE-OUTとLINE-INを直結し、≪WaveGene1.50≫で生成した2448ファイルを≪PlayPcmWin≫で再生し、≪WaveSpectra1.50≫で16192録音したものです。

 16/01/04追記:サンプルレート44.1kHzの14.7kHzサイン波のサンプル(1周期に3個だけ)が復元されるプロセスを可視化してみました。リコンストラクションの具体的イメージとしてはこちらの方が解りやすいかもしれません。

・ちなみに:デジタルはカクカクしていないというよりカクカクできない
 「22.05kHz以下のサイン波しか再現できないってことは、もしかして、じゃあCDって矩形波や三角波は表現できないの?」というと実はその通りで、サイン波の集合体としての近似波形になってしまいます。理想矩形波や理想三角波には22.05kHz以上の周波数成分が含まれているからです。
 といってそれは再生側(DA側)の欠陥ではありません。44.1kHzサンプリングでは22.05kHz以上の周波数成分はカットされているのが前提であり、AD変換の時点ですでに“カクカク成分”はなくなっているのですから。

 カクカクできない例として、同じく2448フォーマットの1.2kHz矩形波の再生・サンプリング結果を添付します。40サンプル/周期あるハズですね。
矩形波
 まるでカクカクしていません(できていません(笑))。また、1周期が20個のサイン波の重ね合わせになっているようにも見えると思います(24kHz/1.2kHz=20。中心から上と下でサイン波の形は逆)。念のためですが、アナログ的なノイズやリンギングでこうなっているのではありません(アナログだったら「急峻に変化する前からリンギング」はできるハズないですよね)。
 ただし、実際の音源データとしてはこのような理想矩形波はあり得ません。サンプリング定理に従っていれば、ナイキスト以上はカットされている=カクカクではなくニョロニョロの波形データになってるハズですので。上記実験は「理想カクカクのデータ“ですら”再生するとニョロになる」例とご理解ください。
 なお、DA・ADとも後述するオーバーサンプリング時のデジタルフィルタによるエコーも含んでいると思いますが、2448フォーマットの最小単位(?)である24kHzリンギングの成分に内包されていると理解しています。

 ちなみに、12kHzの矩形波はほとんどサイン波になってしまいます。イメージできると思います。

 「デジタルはカクカクな波形になる」と思われがちですが、それはまるで誤解だったんです。実はカクカクなんてしていない… と言うか逆に「カクカクできない」のです(*)。
 そしてそれは決してナマっていたりするワケではなく、理論上正しくスムーズになっているのですね。
 実は、デジタルオーディオ(おそらくアナログでも)では「カクカクは正確に表現できない」のです。一般的な印象とは真逆、目からウロコですね(笑)。まあ、そもそも「カクカク」の“水平部分”はDC成分ですし“垂直部分”は無限周波数ですから、自然界には存在し得ない音(どんな発音体でも振動できない音)なワケで、考えてみればアタリマエかも知れません。

*:たまにそう見える生波形の写真・図もありますが、リコンストラクションフィルタをかける前のものでしょう。


■向き合ってみた結果

 以上、「信号周波数の2倍以上の周波数でサンプリングすると原信号を完全に復元できる」ことが解りました。ただし“数学的には”ということも。

 また、フーリエ変換においても“実際には有限の周波数”で考える必要があることも解りました。

 そして、繰り返しますが、この理屈が成立するのは、CD規格の数字で言えば
「22.05kHz以上の周波数成分はないという前提(約束事)があるから」
です。そして、これと同時に
「現実的には22.05kHz以上を遮断し22.05kHz以下を通過させる理想LPFは存在しない」
という点がキモでした。
 それによって「DA変換の現実問題」が発生し、それこそがデジタルオーディオの音質に大きな影響を与えていると思われるからです(AD変換も無関係ではありませんが、コンスーマ的立場で主に影響があるのはDA変換という意味です)。


 上記でみてきた「理論」を踏まえ、「現実」にはどうなっているか次に考えてみようと思います。


■AD変換の現実

・理想ローパスフィルタは存在しない…ので
 上述した通り、DA変換で22.05kHzまでの音声を復元するためには、AD変換=サンプリングする際に22.05kHz以上の周波数成分を完全にカットする必要があります。
 しかし、22.05kHz以下を通過させ22.05kHz以上を遮断する垂直なカットオフ特性を持つ理想LPFは存在しません。ゆえに、現実的にはLPFはある程度“斜めの(緩い)”カットオフ特性を持つことになります。
 ここに「人間の可聴域は約20kHz」という条件を加味すると、「20kHz以下を通過させ22.05kHz以上を遮断する」LPFが“現実的理想”となります。AD変換する前ですからもちろんアナログフィルタです(*)。プロ用機材ですから、それなりにコストをかけてなんとかニアリーな特性を実現していたようです。

*:よく解っていませんが、ΔΣ方式だと1bit→PCM変換の時にデジタルフィルタ? 本稿では、あくまでも基礎的・概念的なハナシとして。

 では、「20kHz以下通過&22.05kHz以上遮断」という特性が完全に実現できていないとどうなるでしょう?

・20kHz以前に遮断周波数がひっかかる場合は高域のゲインダウンとなります。

・22.05kHz以上の周波数成分が完全に遮断しきれていないとすると、これはAD変換時点でとしてデータに内包されることになります(再生時には見分けつきませんので除去できないノイズとなる)。これが「エイリアシングノイズ」です。22.05kHz以上の周波数でもそこに波形があればサンプリングされてしまうことは容易に想像できるでしょう。面白いことに22.05kHz(ナイキスト周波数)を中心に折り返された周波数成分として出現するので、“折り返し歪み(雑音)”と呼ばれるようです。ただ、“アナログ的な「シャー」とか「ザザザ」とか言うような雑音という意味でのノイズ”とはちょっと概念違うことに惑わされそうです(笑)。

 よって、このAD変換前のLPFは「アンチエイリアシングフィルタ」と呼ばれるようです。
 「アンチエイリアシングフィルタリングのデキ」は、デジタル音源生成時の音質差要因のひとつになるでしょう。

・エイリアシングノイズを可視化する
 例えば、foobar2000の記事で用いた2496サンプル音源をAD対象のアナログ音源、それを2448でダウンサンプリングすることを2448でデジタルサンプリング、とみたてることで可視化を試みました。

 ≪WAVEフォーマット変換プラス1.02≫というフリーソフトで“単純間引き”した2448と、SoX(もちろんAliasing許可しない)でダウンサンプリングしたファイルを反転mixしました。前者は“エイリアスノイズまみれ”、後者はカットされているハズですので、ノイズが抽出されるハズです。

Souvenir2448WCPmix.png

 確かに無視できないノイズと言えそうです。

 これが「エイリアシングノイズ」の正体なのでしょうか。
 試しに元音源の24kHz以上のスペクトルを画像として左右反転して(折り返して)みます。

Souvenir2496半分反転

 比べてみると、確かにナイキスト周波数(24kHz)で“折り返し”てるように見えます。アンチエイリアシングフィルタなしでAD変換した場合、理論的にはこの折り返しが無限に続くんですよね。

 これはAD変換時にちゃんと除去しといてもらわないと、ですね。


■DA変換の現実

 プロ現場の高性能なADシステムなら「AD変換時のエイリアシングノイズ」はほぼキャンセル出来ていると考えてよいと推察しています(特にイマドキは)。しかし、そうやって得られたデジタルデータでも、今度は理論上「イメージングノイズ」なるノイズを必ず内包しているのです。

・イメージングノイズとは何か
 前述のTI社のDSPトレーニング「第2章 デジタル信号処理入門 (サンプリング定理/エイリアシング)」の後半の内容になりますが、私なりに理解の補助図を作ってみました。
 数字の解りやすさを優先し、ここでは48kHzサンプリングを例とします。≪Wavosaur≫を使って並べて作ってみました(波形を得ることが目的ですので、図中の周期や振幅は説明とは無関係です)。

イメージングのイメージppt

 元のアナログ波形は24kHzのサイン波とします。48kHzサンプリングの最小単位ですね。AD変換時★印のポイントでサンプリングされ、2サンプルでピークトゥピークのサイン波データとなっている状態です。
 しかし、上図を見ると、サンプリングポイントを通過するサイン波は24kHzだけではありません。72kHzや120kHzも条件を満たすことが解ると思います。もちろんもっと高い周波数にも無限に存在できます。
 “存在することをイメージ”できてしまうとも言えるでしょうか。

 これが「イメージングノイズ」です。前述したリコンストラクションフィルタを通す前の「カクカク」部分に含まれる無限周波数のこと、とも言えると理解しています。
 面白いことに、「サンプリング周波数×N±周波数」に出現します。48kHzサンプリングの12kHzサイン波なら1fsのイメージング領域には36,60kHz、2fsの領域には84,108kHzに出現します。

 では、この「イメージングノイズ」を除去するにはどうすればよいでしょう?
 ここで、改めてサンプリング定理をひもときますと「元信号には24Hz以上の周波数成分はない」という前提条件があるのですから、「イメージングノイズ」と「シグナル」はそれで区別できることが解ります。つまり24kHz以上の周波数成分はノイズとみなしてカットすればよいワケです(24kHz以下にはイメージングノイズは絶対に出現しません。イメージではなくリアル領域ですので)。

 これってつまり前述した「リコントラクションフィルタ」の役割の別表現と言えますね。こちらの理解の仕方では「アンチイメージングフィルタ」と呼ばれるようです。

 ちなみに、CDフォーマットデータは20kHz以上はカットされているハズですので、イメージングノイズ発生領域も20kHz~22.05kHzを折り返した周波数以上になるハズです(20kHzでバッサリ切れてるワケではないので正確な表現ではありませんが)。このため、実際のDACチップでは「20kHz以下を通過させて22.05+(22.05-20)=24.1kHz以上を遮断する」フィルタをかけているようです。

・イメージングノイズを可視化する
 2448音声データを≪WAVEフォーマット変換プラス1.02≫によって単純間足し24192とすることで擬似的にイメージングノイズを可視化し、上記動作を説明を書き込んでみます。

イメージングノイズイメージ

 と、理屈はカンタンなワケですが…

・イメージングノイズカットの現実問題
 でも、しかし、つまりそれって、DA変換においてもAD変換時と同等の急峻な遮断特性を持つ高性能LPFが必要ということです。しかし今度はプロ用ではなくコンスーマ機器に実装する機能です。
 コンスーマ機器でそんなLPFを実現するにはどうすればよいのでしょう? 20kHz以上に存在するイメージングノイズはどうせ聞こえないのだから「何もしなくてもいい」という極論もありえますが実際にはそういうワケにもいかないですよね。そこで…
 CD黎明期のプレーヤではコンスーマ機器として許容範囲のコストや規模でアナログLPFを実装していたようです。しかし、おそらくプロ用LPF技術の簡易版としてバーターがあったであろうことは容易に想像できます。例えば、遮断特性を厳しくすれば波形を崩すけれど緩くすればイメージングノイズが漏れ出る、どっちを取るか? というような。
 初期のCDプレーヤではそれが音質劣化の大きな要因になったという話は納得できるものがありますし、プレーヤ製品間の音質差違の大きな要因になっていたことでしょう。
 しかし、現在では大きく事情が変わりました。デジタル技術の進化よって安価かつ高性能(?)に処理する技術が開発されたからです。
 それが「オーバーサンプリングデジタルフィルタ」です。

・オーバーサンプリングデジタルフィルタとは
 一言で言うと、

「リコンストラクションフィルタの役割を“デジタルのプリフィルタ”と“アナログのポストフィルタ”の2段構成にすることによってアナログフィルタの必要特性を緩くすることを可能にし、そのコスト・規模を大幅に削減する」

でよろしいかと思います。
 現在ではDACチップに内蔵されており、「8倍オーバーサンプリングデジタルフィルタ」などといったスペックがこれを表しています。
 以下、OSDFと略します。

 何が行われているかの理解のため、以下の方法で2倍OSDF動作を擬似的に可視化してみました。
 
step1.≪WAVEフォーマット変換プラス1.02≫で単純間足しして2496化し、イメージングノイズをデータ化
step2.≪Wavosaur x64 1.1.0.0≫のLPFで24kHz以上をカット
step3.≪WAVEフォーマット変換プラス1.02≫で24192化し、イメージングノイズ状態を可視化

 以下がそのスペクトルになります。

デジタルフィルタ動作イメージ

 2倍OSDFをかけると1fsのイメージングノイズ(上記例では48kHz中心の折り返しで24~72kHzに発生)をカットできることが解ります。ただし2fs以上のイメージングノイズは残っているため、この除去はアナログのポストフィルタに担ってもらうということですね。しかし、OSDFがない場合よりかなり緩やかな特性でよくなっていることが解ると思います。
 4倍にすると3fs中心まで、8倍にすると7fs中心で折り返すイメージングノイズまでカットできるため、残留ノイズはかなりの高周波数帯域にしかなくなります。アナログポストフィルタはそれをカットすればよいので、倍率を上げればどんどん緩い特性でよくなる、ということですね。確定的な情報は得られていませんが、遮断周波数は100kHz~150kHzあたりみたい?

 上はOSDFの意義を周波数ドメインで見たものです。波形ドメイン的には「サンプル間がなめらかに繋がるようにサンプルを増やしていくこと」と言えます。48kHzサンプリングの24kHzサイン波データを2倍OSDFで96kHzにしてサンプル間にひとつサンプルを増やすと、「必ず通らなければならないポイントを増やしてイメージできる波形を制限する(イメージしてよい条件を増やす)」ことになります。
 そうするとイメージングノイズが存在(?)しうる周波数帯域が高くなることは、上の発生説明図からも解ると思います。
 OSDFの効果を「ノイズを高域に“移動させる”」という説明を見ることがありますが、移動じゃあないような(苦笑)。もともと離散的であるが故にデータに内在しているノイズのハズですから…

 ということで、DACユニットが謳う「デジタルフィルタ」機能は「DA変換機能の一部=必須機能」です。決して「どうせ音質を損ねるだろう余計なオプション」ではありません。

 そして、OSDFはDACチップ内での“リアルタイム”処理であり、現実的実装として「理想LPF」にすることはできません。ゆえに性能はDACチップによって千差万別であり、それが音質差要因になっていることでしょう。


 イマドキのDACチップは、DA変換する前にかなり大量のデジタル演算する半導体なのですね。


 では、≪foobar2000≫のSoX Resamplerなど、送り出し側で行うアップサンプリングとDACチップ(ユニット)で行うオーバーサンプリングデジタルフィルタとはどんな関係になるのでしょう? 当「サンプリング定理のオーディオへの応用」考察を踏まえて考えてみましたのでよろしければ。


■余談

・デジタルフィルタ部の機能
 実際のデジタルフィルタブロックにはアッテネータやデエンファシス処理など含むことは、本稿では割愛させていただきました。また、DSDについては無視しています。
 また、イマドキはADもDAもΔΣ方式で行われていると思いますが、原則として本稿の内容とは直接関係しないと思っています。本稿は「サンプリング定理の現実的応用=マルチビット(PCM)」について記していますが、ΔΣ型ADC/DACの仕組みは「その現実的実現方法」ですので。

・「エイリアシングノイズ」と「イメージングノイズ」の定義
 これら用語に明確な定義はなさそうで、混用されているように見えます。例えばRoland社のインタビュー記事(*)では、明らかにアナデバ社の言う「イメージングノイズ」を「エイリアス成分」と呼んでいます。エイリアスは“折り返し”の意味で使われているので、「イメージングノイズ」も確かに折り返しノイズと言えちゃいます。
 が、そうするとAD段階のエイリアスとDA段階のエイリアスの区別が付かなくなりますので、本Blogではweb検索ヒット内容とSoXの表記から、AD段階を「エイリアシングノイズ」、DA段階を「イメージングノイズ」と記すことにしました。
 なお、「エイリアスノイズ」と「エイリアシングノイズ」、「イメージノイズ」と「イメージングノイズ」も区別が微妙(苦笑)。

*:http://av.watch.impress.co.jp/docs/series/dal/20141020_672091.html

・本当は逆かも
 本稿は素人が“CD規格ありき”で調べて考えたものです。
 なので「CD規格のサンプルレート44.1kHzで再現できるのは現実的には20kHzくらいまでになる」という順序で考えていきましたが、本当は「20kHzまで記録するためにナイキスト周波数を22.05kHzにした」と理解した方がいいかも知れませんね。
 なんで22.05kHz(サンプリング周波数44.1kHz)なんて中途半端な数字なのかと言うと…

・CDのサンプリング周波数が44.1kHzなワケ
 これはVTR技術を流用したPCMレコーダから来ているようです(*)。
 ビフォアハイビジョン時代のNTSC水平走査は525ライン/フレームです。このうち1/15は垂直同期ラインなので有効な信号は記録できません。よって有効ライン数は490ライン/フレームとなります。白黒TVでは30フレーム/秒ですから、1秒間では490x30=14700有効ライン/秒となります。
 PCMレコーダは1ラインに3サンプル記録する仕様になっていたようです。よって14700x3=44100サンプル/秒、44.1kHzとなります。2サンプルでは14.7kHzがナイキストになってしまいますので“性能不足”、4サンプルでは29.4kHzになりますが“過剰性能”ということでしょうね(記録密度の関係などももちろんあるでしょう)。
 ちなみに14bitでも20bitでもなく16bitなのはデジタルのデータ長としてベスト(8の倍数)だからって理由もありそうですね。

*:http://app-review.jp/news/175873


■参考資料

・東京電気大の「ディジタル信号処理の基礎」
 大学の教材としてはかなり平易に書かれている
 「理想LPFがデジタル離散信号から原波形を復元する」と明記されている
 末尾の数字は年度を表していて、例えば12、13、14もある
http://www.asp.c.dendai.ac.jp/ASP/DSPseminar08.pdf

・同じく東京電気大の「信号理論(第5回)」
 フーリエ級数について正弦波を重ねて矩形波などを表現できることが図で解りやすく記されている
http://www.asp.c.dendai.ac.jp/courses/spectrum01.pdf

・Resonessence社の「エイリアシング(エイリアス)とは」
 CD黎明期の事情を交えてAD時のエイリアシング除去、DA時のイメージング除去を解りやすく書いている
 DA段階のフィルタをリコンストラクションフィルタと呼んでいる
http://www.resonessencelabs.jp/resonessence-labs/technologies/digital-filter/

・EDN Japanの記事
 こちらにもDAC原理が記されており、同じく「リコンストラクションフィルタ」と呼んでいる
http://ednjapan.com/edn/articles/0607/01/news010.html

・アナログデバイセズ社「データ変換の基本ガイド」
 音声に限らないADC/DACの解説
 エイリアシングノイズが折り返されてずっと続いていく図が掲載されている
 DA変換時に発生する折り返しノイズを除去するのは「アンチイメージングフィルタ」と記されている
http://www.analog.com/static/imported-files/jp/overviews/ADI_Data_Conversion_Poster_F.pdf

・アナログデバイセズ社のΔΣADC/DACの原理解説
 ADCについてだが、P.8に「48kHzで115dB減衰させるフィルタを構成するには4096tap必要」とある。196MHz/tapの計算能力が必要であり、現在(2009年)は無理と言っている
http://www.analog.com/static/imported-files/jp/application_notes/AN-283_jp.pdf

・TI社のオーバーサンプリングデジタルフィルタ解説
 本稿に記している原理が解説されている(アナログポストフィルタの特性など)
http://www.tij.co.jp/jp/lit/an/jaja016/jaja016.pdf

・CDプレーヤからの「11.025kHzサイン波」と「5.5125kHz矩形波」の出力波形
http://www.tcgroup-japan.com/TCE/Tech/0dbf_D-Mastering_JPN.pdf


メインメニューへ
スポンサーサイト

テーマ : オーディオ
ジャンル : 趣味・実用

ERIへようこそ

Author:らかせ
 「最新記事」または「メインメニュー」からどうぞ

・ファイルへの直接リンク以外はリンクフリー(連絡不要)です
・一応、拍手にコメント(非公開)付けられるようにしてあります
・DB的に利用しており、過去記事もガシガシ書き換えています。特に「最新記事」は初稿から一週間くらいは直してることが多く、大幅に変わっちゃうことも。ご了承ください
・ということもありますし、記すまでもないですが無断転載(ファイル含む)はご遠慮ください
・引用の考え方については「007:諸事」をご参照ください
・アフィリエイトはAmazonのみです
・ハイパーリンクは当Blog記事のみです(054:節電記事のみ例外)

最新記事
カテゴリ
検索フォーム
FC2カウンター
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。