PhaseとImpulseのハイレゾ効果を確かめる

16/03/05初稿

 前稿で、遂にデジタルフィルタのパラメータが演算結果に及ぼす影響について調べました。

 とりあえずサンプリングレート1fs(44.1kHz)ソースについて見ましたが、これって、同じ波形でもサンプルレートが違うと影響度は異なるのではないでしょうか。もし、ハイサンプリングだと“影響”が緩和されるなら、それはハイレゾの効能と言えるでしょう。
 もちろんフォーマットとして、ですけれど(実際に聴いて差があるかは別)。

 ということで、調べてみました。
 以前、「ない高域をサンプリングして“ないことをデータとして確定”させることでイメージングノイズ発生帯域をその上の高域にシフトし、OSDF影響を下げることがハイレゾの効果(のひとつ)」と考察したことがありますが、本稿はPhaseとImpulseの側面での効果確認になるかと思います。

 本稿では、その主旨からハイレゾはハイサンプリングのことを指します。


■Phase Response

 前稿で扱った「14.7kHzと7.35kHzのサイン波を合成した波形」の変形につき、サンプルレートを変えたソースで調べてみます。
 44.1kHzに加え、同じ方法で88.2kHzと176.4kHzのデータを作成。それぞれx2x2x2とx2x2とx2してすべて352.8kHz(8fs)化した時の変形を比較します。
 同じ8fsにするにしても、フィルタで再生成したものではなく最初から2倍分4倍分の“リアルサンプル”があるデータの変形度合いの比較、ということですね。
 8fs(8倍)で揃えたのはDACのOSDFがΔΣブロックに入れる前に「8fs」にする(*)処理のシミュレーションとするためです。

*:AK4490などはそのように動いていると理解しています。

 以下、 ≪Resampler-V≫のMinimal設定の結果を示します。Linearは変形しないので省略。

14700+7350 0per ハイレゾ比較 サイン波重ね

 「44.1kHz x2x2x2(上図)」と比較すると、「88.1kHz x2x2(中図)」ですでに変形はかなり抑制されています。「176.4kHz x2(下図)」の“リコンストラクション再現率”は、ほとんどLinearと遜色ないのでは。

 もちろんこの例のみでのイメージですが、特殊事例ではないと思います。


■Impulse Response(の代替特性)

 こちらも、前稿の「1周期の4kHz -0dB」波形につき、サンプルレートが異なるデータを作って比較します。
 これは一般的な「Impulse Response」ではありません。その理由などの詳細は前稿を参照ください。

 前稿で見た48kHzをx2x2x2した場合(上図)に加え、96kHzをx2x2(中図)、192kHzをx2(下図)してぞれぞれ8fs化した場合につき、MinimalとLinearを示します。

・Minimal

4000HzResponseハイレゾ比較 0per


・Linear

4000HzResponseハイレゾ比較

 すべて8fsで揃えていますので、同じ時間スケールでの比較です。サンプリング周波数が高くなるとエコー成分はどんどん減っていく様子が解ります。
 ちなみに≪Wavosaur x64 1.1.0.0≫の表示限界以下で見えないワケではありません(別途拡大表示して確認しました)。


 なお、余談かつおそらくですが、これは基音と倍音でハイレゾの効果を見た時と同じ現象を別の見方しているのではないか、という気がしています。


■デジタルフィルタにみるハイレゾの効果

 以上より、デジタルフィルタにおける「Phase Response」「Impulse Response」の絶対的影響は、ソースのサンプルレートが高くなるほど小さくなると言っていいのではと思います。
 まあ、当たり前ではありますが、実際に波形で比較してみるとその“程度感”などが解ってヨイですね。

 つまり、「Minimal系特性にすると波形変形が発生する」「Linear系特性にするとプリエコーが発生する」と言う(言われる)デジタルフィルタのデメリットは、ハイレゾ(ハイサンプリング)になればなるほど軽減されるということです。
 もちろん同じ周波数帯について見た場合です。人間の可聴域や音楽の周波数はハイレゾだと移動するってワケではありませんから、例えば「ハイレゾの場合は2倍・4倍の領域(ナイキストに対して同じ比率の領域)で比較しなければ意味がない」といったことはないでしょう。

 さて、上記はPCソフトのフィルタ演算結果ですが、DACチップのOSDFも基本的に同じ特性を示すハズです。

 具体的な例を挙げると、AK4490のOSDF結果は8倍固定ですので、最初から8fs=352.8kHzや384kHzソースの場合はOSDFかかりません。LinearもMinimalも関係なくデジタルフィルタのデメリットは発生しないワケです。それは極端な例としても、4fsソースの場合はOSDFは2倍ですので影響はかなり抑制されるでしょう。

 ですので、「(OSDF式の)DAC動作」という観点では、ハイサンプリングだとデジタルフィルタのデメリットを抑制できるメリットありと言えるのではないでしょうか。

 言い方を変えると、「フィルタ特性による音の差が少なくなる」「“デジタル臭さ”が減る」といった表現もできるでしょうか。
 もちろん、これはDACの仕組みにも依存するので絶対的一般論とは言えませんし、実験はサイン波(せいぜい成分としてふたつ)でのものですから、当然ながら実際の楽曲においてどれくらい有意差があるかは別問題ですけれど。

 なお、当然かつ重要な点ですが、ソースがネイティブハイサンプリングじゃないと当該メリットはありません。「AD変換が1fs、またはAD変換が2fsや4fsでも製作過程で一度でも1fs化したデータ」をアップサンプリングしたハイレゾでは、その時点で1fsを2倍4倍するためのデジタルLPFかかっているのですから。


メインメニューへ

テーマ : オーディオ
ジャンル : 趣味・実用

「Phase Response」に応答してみる

16/02/03初稿

 ≪foobar2000≫の≪SoX Resampler≫や≪Resampler-V≫などをはじめとするリサンプリング機能には「Phase Response」なる設定項目があります。

 ちゃんと解らないまま概ねデフォルトのまま使っていましたが、「Phase Response=位相応答」とは何で、アナログ化にどんな影響があるのでしょう?

 「オーディオにおけるサンプリング定理」について調べてから芋づる式に(?)「デジタルデータがアナログ化されるまでのお仕事」についていろいろ考えてきたのですが、難しくて先送りしていた最大の難問(?)に、いよいよチャレンジしてみます。


■「位相応答」とは何か

 とりあえず説明してみます。なかなかに難しいので合ってる自信はありませんが(苦笑)。

・「位相シフト」と「ズレ時間」
 リサンプラにおける「位相応答」とは、デジタルLPFを通した際、「“位相シフト”がどのように発生するか」だと思います。
 「位相シフト」をイメージし易さ最優先で超ざっくり言うと「周期の開始点がズレること」です。
 さらに純音に限定して超具体的に言うと、位相シフトすると波形変形はしませんが全体的に時間軸上でズレます。
 じゃあ位相応答って時間ズレのことなのかというと、そうも言えません。
 位相応答のミソはおそらくそこ、「位相シフト量は時間軸上のズレ量ではない」ということだと思います。

 それってどういうことか、基本波形(純音)のサイン波で考えてみます。
 位相シフトが180°だったとすると、1周期は360°ですから1/2周期です。周期100ms(10Hz)なら50msのズレ、10ms(100Hz)なら5msのズレ量になります。つまり、位相シフト量が同じなら周波数によって時間ズレ量は異なるということです。
 逆に100ms周期でも10ms周期でも5msのズレになっている場合、位相シフトは前者で18°(1/20周期)、後者で180°(1/2周期)です。
 ですので、周波数に依らず時間ズレ量を一定にしたいなら位相シフト量を周波数に線形に変化させる必要があるのです。

 線形に変化せず周波数によって時間ズレ量が変わったらどんな影響があるのでしょう?
 そこで思い出すべきは、すべての波形はフーリエさんの言うように複数周波数のサイン波で構成されているということです。
 ですので、フィルタを通した時の位相シフト量が周波数に対して非線形(例えば一定で変化しない)だと、「周波数成分ごとに時間ズレ量が異なる=合成された波形が変化する」ことになります。
 線形なら、時間ズレ量は周波数によって変化せず一定ですので変形はありません。

 つまり、LPF特性「Phase Response」のミソは、位相シフトが発生すること自体ではない上に、“量の大小”ではなく“周波数依存性が線形か非線形か”ということだと思います。

 言うまでもありませんが「オーディオ再生において」の話です。
 音響補正のようなフィードバック制御などの場合は遅延も問題になる(*)ようですが、Audio再生においてフィルタ演算での遅延が問題になることはないでしょう。再生中に遅延時間が変化することはありませんので、問題になるとしたら読み出されたデータが再生されるまでにディレイが発生することですが、たとえ再生ボタンを押して音が出るまでに100ms遅れたとしてもたぶん気付きませんよね。

*:http://proaudio.yamaha.co.jp/downloads/documents/data/white_papers/my8lake_white_paper_ja.pdf

・「位相応答」を体験する
 といっても、具体的な波形変化で確認できないと確証は持てません。チマチマと思いついたことを試していたのですが、その中で、先日やっと具体的な事例としてなんとかイケそうなやり方を見つけました。
 前回同様≪Wavosaur x64 1.1.0.0≫で表示します。ファイル名などは無視してください(笑)。

 準備したのは次に示す上図の波形です。
 7.35kHz(中図)と14.7kHz(下図)のサイン波の合成波形です(サイン波のレベルは合成後にサチらないよう-6dB)。
 14.7kHzの方は前稿で扱ったのと同じく位相を30°ズラしています。合成波形のカタチに特徴を出し、今回の目的である位相応答を解りやすくするためです。

14700+7350.png


 次に、上記の3波形を44.1kHzサンプリングしたデータを示します。“点”がサンプルポイントです。
 メンドクサイので“補助線”で結ばれた表示のままです(今回の趣旨には影響ないと思います)。

14700+7350 3244 サイン波重ね

 上図の“ふたつの周波数成分を持つ”44.1kHzデータを、≪foobar2000≫で「Phase Response」設定を変えてアップサンプリングすると結果はどう変わるでしょう?
 DACのフィルタを想定して8倍(x2x2x2)してみます。

・「Impulse Response」とは何か
 ところで、実は「Phase Response」特性を変えると「Impulse Response」特性も連動して変化します。
 「Impulse Response」とは、ざっくり言うと「リコンストラクションフィルタ演算による、Impulseに対するエコー成分の付き方の違い」です。ざっくり言うと、ですが。
 さらに難しいのでちゃんと解ってるワケではありませんけれど、フィルタで再生成される成分が“Impulseに対しては”エコーのような値になるのではないかと。であれば、一般的なエコーのイメージで捉えない方がよいかも知れません。

 ということで、リサンプラには≪Resampler-V 2.1≫を用います。設定ウィンドウでスライダを操作するとLPF特性だけでなくエコー特性表示もリアルタイムで変化するので、連動具合が解りやすいためです。

・Phase Response 「Minimal」 (SoX Resamplerの0%)

Resampler-V 0

 位相シフト量変化が周波数にリニアではない=非線形になる設定だと理解しています。
 以下、8倍結果です。

14700+7350 0per Vx2x2x2 サイン波重ね

 ありゃ、上図は再現すべき元波形とは似て非なる形になってしまっています。
 何故かと言えば、中図と下図に示した通り、その周波数成分たる14.7kHzと7.35kHzの時間ズレ量(*)が違うためです。周波数成分の時間軸上のタイミングが変わってしまったので合成結果も変わったということです。

 つまり、この設定でアップサンプリングすると、設定ウィンドウの通り「プリエコーなし」というメリットが得られる一方「波形変形する」というデメリットがある、と言うことですね。

 なお、3個のファイルはそれぞれ個々にアップサンプリングしたものですが、14.7kHzと7.35kHzのアップサンプリング結果を波形編集ソフトで足し合わせると合成波形の結果と一致することを確認しました。

*:ズレ絶対量の正確を期すより作図を優先しています。元波形と8倍波形の中では3個のタイミングは合ってますので、今回の主旨に影響ないと思います。

・Phase Response 「Linear」 (SoX Resamplerの50%)

Resampler-V 50

 位相シフト量変化は周波数に線形=Linearという意味のようです。

14700+7350 50per Vx2x2x2

 合成波形に変形なしと言っていいでしょう。ふたつの周波数成分でズレ時間に違いがないためです(なので成分波形の8倍結果は省略)。
 ただし、設定ウィンドウにある通りプリエコーが発生するということですね。

・ピーク値が変わる?
 本項16/02/15追記:ところで、Minimal系特性では周波数成分によって時間ズレ量が異なるってことは、周波数成分のピークの位置関係も変わるってことですよね。とすると、合成後のピーク値が変わっちゃうのでは?
 ≪Audacity 2.0.6≫で8倍ファイルのクリッピング表示してみます。上がMinimal、下がLinearです。

14700+7350 クリッピング比較

 Minimalでは(再現すべき)元波形にはないクリップが発生しています。本例では周波数成分のピークを-6dBにしていますのでドンピシャ重なってもフルビットになるだけですが、一般的には「TruePeak」のような問題があると言うことです。
 実際に発生する可能性を確認するため、「LinearでTruePeakが発生しないがMinimalだと本クリップが発生するCDデータ」を探してきました。曲全域でTruePeakはありません。
 上図が元データ、中図がLinear、下図がMinimalです。目的からして充分な2倍です。
 実際の楽曲においてMinimalがどのような波形変形するかの例にもなってると思います。

クリップ比較CD例

 寡聞にして言及されているのを見たことはありませんが、これはMinimal系特性のデメリットではないでしょうか。
 実際の再生音で「ヴェールがかかったようになる」「割れてる」などには至らないと思いますが、「演算としてはLinearにはないピーク潰れを発生させることがある」とは言えるでしょうから。
 TruePeakが発生するデータの場合は逆にピークズレすることで消えるTruePeakもあるでしょうけれど、それはメリットとは言えないですよね。

・再生音に差はあるか
 本稿で取り上げた合成波形のリコンストラクション結果は、「波形」として見るとLinearとMinimal設定で全然違います。一見するとMinimalの変形はマズイんじゃないかと思っちゃいますよね。
 しかし、見た目はずいぶん違いますが周波数成分は同じで、違うのは“ふたつの成分の位相だけ”ということになります(ピーク問題はさておき)。
 そして、人間の聴覚は位相には鈍感らしいです(ちゃんと調べていませんので詳細不明、あくまで“らしい”のレベルです)。
 確かに、DACユニット側のデジタルフィルタはOFFにしてLinearとMinimalで8倍したファイルを聴き比べても差は判らないような…
 このケースだけ、の話ですけれど。


 Linear系特性は過去だけでなく未来のサンプル値も参照できるデジタルフィルタならではのものです(ですよね?)。アナログフィルタでは実現できません。逆に、未来のサンプル値を参照することによってその影響を受け、「プリエコー」が生じるということですね。
 ですので、「Linear系特性は不自然。Minimal系特性の方がデジタル臭くなくて好き」と言う嗜好もあるでしょう。
 一方、「波形変形がないのは(ピーク問題も含め)デジタルフィルタならではのメリットなのでLinear系を積極的に利用する」と言う考え方もできるでしょう。


■DACチップはどうしているか

 上記ではPCで行うアップサンプリングについて見てきましたが、DACチップに搭載されているOSDF(Over Sampling Digital Filter)も同種機能ですから同じ事情があるハズです。

 ただし、≪Resampler-V≫で比較したLinearとMinimalは違いを解りやすくするための極端な設定です。DACチップ内蔵フィルタはいろいろ考慮されていると思います。

・DACチップの実装
 DACチップには、位相応答特性が異なるOSDFが内蔵されているものがあります。そして、どのOSDFを用いるかユーザに開放しているDACユニットもあります(独自のフィルタを搭載しているDACユニットもあるでしょう)。
 そのようなDACユニットで位相応答特性が違うフィルタが選択可能だった場合、極端に言うと

「波形変形するのはキモチワルイから、プリエコーを許容する」
「波形変形してても違いが知覚できないんだから、プリエコーがない方を優先する」

どちらかはお好み次第ということですね。

 では、どのフィルタがどの特性なのでしょう?
 AKM社AK4490内蔵のフィルタ名称をみてみます。

    ・Sharp roll-off filter
    ・Slow roll-off filter
    ・Short delay Sharp roll-off filter(default)
    ・Short delay Slow roll-off filter

 一般的に、SharpとSlowの違いは遮断減衰特性が急峻か緩慢かの違いのようです。
 この特性値もエコーに影響を与えます。プリかポストかではなく“量”が変化するようです。≪Resampler-V≫のPB,SB,Attスライダを動かしながら「LPF Impulse Response」を見ると解りやすいですね。Slowの方がイメージングノイズは漏れるがエコー成分は減る、ということです。
 そして、AKM社の説明(*)によると、「Short delay」と付くモードがプリエコーを抑制する方向性のようです。Mininalとは言いませんが、「非Linear系」特性ということでしょう。
 一方、「無印」はプリエコーとポストエコーが同量のようですから、Linear系特性と思われます。

*:http://www.phileweb.com/review/closeup/akemd-ak4399/
  http://av.watch.impress.co.jp/docs/topic/20151215_725922.html

 TI社もSharpとSlowは同様の定義と推定されます。
 ですが、AKM社に「Super Slow」、ESS社には「Fast roll-off」といったモードもあるようですので、名前だけでフィルタ特性を判断するのは難しそうですね。

・DACユニットの実際
 さて、では、OSDF設定を変えると実際のアナログ出力はどう変化するでしょう?
 TEAC製DACユニットUD-503は搭載しているAK4490のOSDFを変更できますので、「FIR SHARP」と「SDLY SHARP」で上記44.1kHzの合成波形データを再生し、PCオンボードサウンドでキャプチャしてみました(キャプチャ環境は直近記事と同じです)。
 OSDF倍率は8のハズです。

・FIR SHARP(アナログキャプチャ)

UD-503 FIR SHARP

 DACチップによるリコンストラクション結果、確かに「変形なし」のようですね。

・SDLY SHARP(アナログキャプチャ)

UD-503 SDLY SHARP

 “≪Resampler-V≫の極端な設定”ほどではありませんが、確かに元波形とは違う形に復元されるようです。


 一応、≪Resampler-V≫で試してみたことの裏取りにはなったでしょうか。


■ちょっとだけ:「プリエコー」は本当にヤバいのか

 本項16/02/14追記改訂。

 以上、変形について具体的に見てきました。
 が、本稿で取り上げたのは「周波数成分をふたつしか持たない単純な波形」による一例であり、実際の音楽においてどんな影響があるかは別問題であることは言うまでもありません。

 また、変形とバーターであるプリエコーに関しても、特性説明に示される例は≪Resampler-V≫をはじめとして普通「インパルス応答」です。“インパルス”は自然界にある音ではなく、その“応答”はあくまでもフィルタ特性を示すものであって、実際の音楽への影響そのものではないでしょう。
 よくLinear系特性は「プリエコーがあるのでアタック音が立ち上がる前から音が聞こえてしまって不自然」などと評されますが、音声波形のリコンストラクション特性と直結させてイメージするのはちょっと疑問に思っています。
 
 ということで、今回の「Phase Response」とリンクしていることもあり、「Impulse Response」についても少し考えてみました。
 Impulseではなくもうちょっと自然の音・音楽の音に近い波形のプリエコーは本当に気にするべきものなのか、という観点です。「変形」とバーター要素ですので、その影響度をちょっとでも知っておきたいと思いますので。
 全くちゃんと解っていないのですが、解っていない故に理解を深めるためとりあえず(以下、理解の仕方は間違ってるかも知れませんが、事例としてはやってみたそのままです)。

 どんな波形がいいか考えてみたのですが、「1周期だけいきなり立ち上がって消える4kHz(0dB)のサイン波」はどうでしょう? 音楽の基音は4kHzくらいまでしかないようですし、-∞から一気に0dBになる以上に急峻な立ち上がりはありませんので。なお、基音より高周波数の倍音成分は、基音よりレベルは必ず低くなりますのでエコー成分も小さくなるハズです。

 その波形(1648フォーマット)を≪WaveGene≫やバイナリエディタを使って作り、アップサンプリングでプリエコー・ポストエコーがどんなふうに付加されるのか試してみました(48kHzなのはサンプル数を整数個にするため、16bitなのはバイナリエディタで弄りやすくするためです)。
 リサンプラは上記と同じ≪Resampler-V(SoX)≫を用います。目的からして充分なので2倍です。
 中図がMinimal、下図がLinear設定です。

4000HzResponse1648.png

 Linearのプリエコー、そんなにヤバいものでしょうか。そもそもエコーと呼んではいますがくっつく波形は元の4kHzじゃなくナイキスト周期(24kHz)ですし。目立つレベルとしてはそれが数周期ある程度だと思いますが、でっかいアタック音の前にこれを違和感として感じることがあるのかちょっと疑問です。このレベルの24kHzの単独サイン波はおそらく聞こえないでしょうし、無音からフルビットに立ち上がるアタックも普通音楽にはないでしょうから。
 個人的にはMinimalのポストエコーの大きさと長さも気になります。

 さて、「4kHzのフルスケールアタック音」っていうのもある意味“非現実的”ですよね。ので、さらに試しに1kHzの場合も採取してみました。

1000HzResponse1648.png

 エコー成分はかなり目立たなくなっています(時間軸密度の違いは脳j内変換お願いします(笑))。
 これらを見ると、デジタルフィルタのエコーは「かなり大きなインパルス的な高周波成分」についてのみ気にすればいいのではないかという気がします。
 実際の音楽波形の周波数成分としてそれがどのくらいあるのかが問題ということになりますが、素人には解りません(笑)。

 そもそも、“自然界の音・音楽の音”は立ち上がりも収束も上図のようなものではありませんし、いろんな周波数成分が入り交じりますので、どんなふうにどこまで影響があるかはなんとも言えませんけれど。

・フィルタ特性を“ゆるゆる”にすると
 本項16/04/13追記。
 LFPの遮断特性を緩くすると、デメリットは低下するハズです。どれくらい違うのでしょう?
 ≪Resampler-V(SoX)≫の設定を最も緩くして4kHzの結果を採取してみました。

  Pass Band:91.3→54,2%
  Stop Band:100.0→120.0%
  Stop Band Attenuation:-198→-96dB

4000HzResponse1648 大甘設定

 上がMinimal、下がLinearです。
 Linearは思ったほど劇的な差ってカンジでもないです。Minimalは効果アリ? もちろんイメージングノイズ遮断特性の劣化とバーターの効果ですけれど。



 いずれにしろ、「変形」と「プリエコー」、どっちをどこまで気にするかは“お好みで”ってことですね。


 それにしても、PCMのリコンストラクションって「あちらを立てればこちらが立たず」でいろいろ大変ですねぇ…(苦笑)


メインメニューへ

テーマ : オーディオ
ジャンル : 趣味・実用

「サンプリング定理」のひみつ

16/01/04初稿

 (PCMデジタルオーディオにおける)サンプリング定理のリクツは一応納得したつもりです。
 でも、なかなかスッキリ腑に落ちるカンジにはならないですよね。きっと具体的にイメージできないからでしょう。

 そこで、PCMデジタルデータがどのようにDACチップでアナログ波形に「再構築=リコンストラクション」されるのか、サンプリング定理に基づいたシミュレーションによる“見える化”で追ってみたいと思います。
 CDフォーマットである44.1kHzを例にします。

 波形表示には≪Wavosaur x64 1.1.0.0≫を用いましたが、説明に適した波形を描くためデータはいろいろ弄っています。ファイル名などは無視してください。
 また、「サンプリング周波数44.1kHzでは実際には22.05kHzは記録再生できない」といった実事情は説明簡素化のため無視しています。


■1周期に数個のサンプルから連続波形を再現するプロセスを体験する

 たとえ1周期に2~3点ほどしかサンプルがなかったとしても、サンプリング定理によれば「完全に復元される」ハズです。
 その具体例を44.1kHzサンプリングにおける14.7Hzのサイン波で見てみたいと思います。44.1kHzの1/3の周波数ですので、1周期にちょうど3個のサンプルがあるPCMデータになっています。レベルはドンツキを避けるため-3dBにて。
 マイナスピークにサンプルポイントを合わせるため(極端な例にするため)、開始を30°ズラして≪WaveGene 1.50≫で生成したものです。

 以下にふたつの図を並べます。
 上図は、14.7kHz/-3dBサイン波を示すデジタルデータです。デジタルですので当然情報は“点”しかありません。
 が、サンプリング定理上「ナイキスト以上の周波数成分はない」という条件が必ず付きますので、その具体的イメージを添えたのが下図です。22.05kHz/0dBのサイン波=サンプリング周波数44.1kHzで表現できる最高の周波数の図となります。

14700Hzの点と220500サイン波

 DACチップは上図の離散サンプル間をつないで波形を復元します。「自然界に存在し得るなめらかな波として」なのは言うまでもありません。
 そのままだとどんな線でも引けてしまいますが、「下図以上に急峻な変化はできない」という条件が付くワケです。
 さらに、最大振幅が0dB以下という条件もあります。

 その条件で上図の点を線で結ぶとどうなるでしょう?


 どんなに工夫しても「1周期に3個のサンプルがある14.7kHzのサイン波」になっちゃうハズです。
 ピークもサンプル値に拘ってはいられません。プラス側はサンプル値としては最大-9dBしかないのに-3dBに頂点を持っていかざるを得ないですよね(TruePeak)。

14700Hzの点・サイン波重ね

 ということで、1周期に3個しかないサンプルからサイン波が再現できました。3サンプルポイントが時間軸上ズレている場合や1周期のサンプルが整数個ではない場合は、応用編としてイメージできると思います。
 そして、サイン波が復元できるということはいろんな波形が復元できるということです。
 なお、本例は人工の単独サイン波ですが、自然音の場合も、「AD変換する前にナイキスト以上の周波数はLPFでカット」がPCMの前提ですから、「22.05kHzサイン波以上に急峻な成分なし」という条件はやはり成立します。

 これが「サンプリング定理」によるリコンストラクションです。


■DACチップでは44.1kHzの離散データを如何に連続アナログ値に復元するか

 要するに、上で“脳内シミュレーション”したのと同じことがDACチップ内ではデジタル演算で行われているのです(正確に言えばDACチップ外のアナログポストフィルタも含めてですが)。

 PCMデジタルデータをサンプリング定理に基づいてアナログ値に戻す作業=リコンストラクションフィルタの前段(というか大半)を担うのが「オーバーサンプリングデジタルフィルタ(以下OSDFと略)」です。PCでやる時はアップサンプリングと呼ばれる動作です。
 これは、あるサンプルの周辺サンプルを参照することによって、あるべき中間サンプル値を算出していくものです。上で点を繋ぐ線を想像した時、きっと周りのサンプルを参照しましたよね。DACチップ内ではそれを同じことをデジタル回路がOSDFとしてやっているのです。参照する周辺サンプル数が多い(Tap数が多い)ほど再現性が高くなることもイメージできると思います。

 ということで、次に、DACチップ内でどのようにリコンストラクションが行われているか、PCのアップサンプリングによるシミュレーションで可視化してみます。

 例は上と同じサンプルレート44.1kHzの14.7kHzサイン波の復元です。
 1周期に3個しかない点(サンプル)から14.7kHzのサイン波が再現されるプロセス、となります。

・何もしない(NOS-DAC状態)
 ところで、3個しかないサンプルを何もしないでアナログ化するとどうなるでしょう?
 あるサンプル値から次のサンプル値まではデータがない状態であり、未来のサンプル値がどうなるかは判らないのですから、DACチップとしてはサンプル値が変化するまで同じ電圧(電流)値を出力キープするしかありません。
 これを「零次ホールド(Zero Order Hold)」といいます(*)。

*:http://ednjapan.com/edn/articles/0607/01/news010.html

 再現すべきサイン波と重なったところが上でも示したサンプルポイントです(1周期に3個)。

14700Hz-3dB:零次ホールド:サイン波重ね

 全然サイン波じゃないですよね(笑)。
 マジかよ~と思いますが、OSDFかけないと実際こうなります。
 OSDFじゃなかった時代は、DACチップからのこういう出力波形をアナログフィルタでリコンストラクションしてたってことですよね? 確かに音質よくするのは大変そうです。

・OSDF(一般的なDACスペックの8倍まで)
 OSDFを≪foobar2000 1.3.8≫のアップサンプリングでシミュレートしてみます。リサンプラには≪SoX Resamlper 0.8.3≫を用いました。
 「Phase response(位相応答)」パラメータを変えると結果は大きく変わりますが、本稿ではその事情は無視し、主旨説明のために解りやすい50%(linear)としています。左記を含め、デフォルト設定のままです。

 上図が2倍、中図が4倍、下図が8倍です。

14700Hz-3dB:x2x4x8:サイン波重ね

 8倍でだいぶサイン波っぽくなりましたね。オリジナルサンプルは(一番最初の図の通り)3個しかないのに大したものです(笑)。
 8倍でもまだカクカクしていますが、これは、ざっくり「8倍(44.1x8=352.8kHz)のナイキストである176.4kHz以上のイメージングノイズ」と言えます。ので、たとえDACチップからそのまま出力されても、アナログポストフィルタ(おおむね100kHz以上はカットされるハズ)でならされちゃう帯域ですから、ここまでやっとけば充分ってことだと思います。

 なお、上記はあくまでも“見える化”しただけであり、DACチップのOSDFでこれと同じようなリコンストラクションが出来ているという意味ではありません(できてないという意味でもありません)。

・OSDF後(ΔΣ変換)
 実際には、8倍されたのちΔΣ変換するためさらに16倍(128fs)や32倍(256fs)されます。ここではOSDFのような凝ったサンプル生成(オーバーサンプリング)は行いません(行えません。できるくらいならやってる(笑))。
 DACチップにおけるその処理がどんなものなのかは解っていません。ハードウェア資源を割いていないハズなので、零次ホールドか、やっててもリニア補間程度ではないかと思っているのですが…

 一方、PC処理の代表として≪foobar2000≫を調べてみたところ、DSD変換する際ひと仕事しているようです。零次ホールドではなく「Linear Interpolation(リニア補間)」、つまりサンプル間平均値を生成することでオーバーサンプルしているようです。波形編集ソフトでサンプル間を線で結んだようなデータにしているということですね。
 それを見える化してみます。以下は、上記8倍のデータをさらにLinear Interpolationで結んだものです。

14700Hz-3dB:x8のちリニア補完8倍

 ≪Sox Resampler≫で8倍したデータを同じく≪foobar2000≫のプラグイン≪MultiResamlper 1.1.0≫で「Linear Interpolation」して作りました。あくまで説明のための波形です。8倍OSDFからさらに16倍とか32倍になるワケですが、直線で結ぶだけですし、もはや最後のカクカクは無視できますから、リニア補間の倍率は気にしないでください(笑)。

 ピーク付近がやや角張っているようですが、全体的には充分なめらかに見えます。≪foobar2000≫でDSD変換する場合は、このようになったPCMを対象にしているということです(あくまで“説明のための図”におけるイメージですが)。
 ていうか、DACチップのOSDFが8倍だからとアップサンプリングを8倍で止める必要は実はないので、8倍以上に設定すれば上記よりさらになめらかになったPCMデータをDSD変換できるということになります。

 このあたりは≪foobar2000≫(*)によるDSD変換のメリットではないかと思えるのですが、上述の通りAK4490やPCM1795などのDACチップは8倍した後どのようにオーバーサンプリングして128fsや256fsにしているのか解らないのでなんとも言えないです。

*:正確には「そういう設定ができるPCシステム」です。


■ハイレゾデータはどう処理されるか

 本稿は44.1kHzデータについて記していますが、表題についてもカンタンに記しておこうと思います。
 ただし、本項はデータシートなどから個人的に推察したものです。ですので合ってる保証はありません(苦笑)。
 「ハイレゾ」と記していますが、パラメータとしてはハイサンプリングのみが対象です。

・AK4490(AKM社の主力)
 OSDFは倍率可変で出力レートを8fs(1fsは44.1または48kHz)に固定しているようです。96kHzが来たら4倍の384kHz(8fs)にしてΔΣブロックに渡すと理解しています。ΔΣブロックはそれを固定倍率の32倍でオーバーサンプリングして256fsを得ています。
 ハイレゾを入れてもΔΣブロックにおける「デジタルフィルタリングではないオーバーサンプリング処理」倍率は変わらないということです。

・PCM1795(TI社の主力)
 OSDFは8倍固定で出力レートが可変になります。96kHzが来たら8倍の784kHzにしてΔΣブロックに渡すと理解しています。そのかわりΔΣブロックの倍率は可変で、どんな周波数でも最終128fsにすることを推奨しているようです。つまり、44.1kHzソースの場合はOSDF8倍xΔΣ16倍で128fs、96kHzの場合はソースで2倍xOSDF8倍xΔΣ8倍=128fsだと推定しています。
 ハイレゾを入れるとOSDF処理結果のfsが上がり、その分ΔΣブロックにおける「デジタルフィルタリングではないオーバーサンプリング処理」倍率が下げられるということですね。ΔΣ部処理はOSDFより低精度でしょうから、それが下がった分の倍率は前段のデジタルフィルタ処理になるので、ハイサンプリングはDAC処理プロセスとしてもメリットありそうです。


メインメニューへ

テーマ : オーディオ
ジャンル : 趣味・実用

スマホでカーナビ・ルータ・デュアルSIM

15/12/05初稿

 モバイル通信通話環境、2年前いろいろ考えて一旦構築しました。しかし、その後事情はずいぶん変わりました。例えば500MB/月だったMVNOプラン、あれよあれよと増量され今では3GBに。キャリア製ではない“SIMフリー端末(*)市場”の商品も増えました。
 暫くモバイルルータL-04Dで運用していましたが、すでにそれも今や昔。
 ていうか、そもそもmiix2を携帯するようになった時点で結局「通話端末」「通信端末」「ネット端末」の3台持ちになってますけど(笑)。

 現状をいくつかの情報と共に記しておこうと思います。

*:個人的には「SIMアンロック端末」って呼んだ方がいいと思ってるんですけど、便宜上こう記させていただきます。


■スマホをモバイルルータにする

 実はSIMフリー端末は「APNロックフリー」なのでMVNOでもテザリングできるんですよね。
 つまりスマホ自体がモバイルルータとして使えるワケで、であればそれ自身が通信できることでさっくり天気調べたりできるスマホの方がルータより便利です。使用中のモバイルルータL-04Dも悪くはないのですが、通信状況などの把握は白黒の小型ディスプレイですしボタンも少ないですから、操作性はスマホの方が格段に上でしょう。
 でも、軽くて安い端末じゃないとダメです。docomo系MVNOを使う限りdocomo端末で問題ない(というか問題になりにくい)のであまり関心持っていなかったのですが、1年ほど前ふと思い立ってSIMフリー端末を調べてみると「軽くて安い」端末あるじゃないですか。

 処分価格で安くなっていた「HUAWEI製Ascend G6」を買ってみました。

   ←ちなみにアダプタでnanoSIM認識しました。押さえつけるタイプなので引っかかることも少ないかと

 重さ115gですので、L-04Dの89gに比しても「Androidアプリが使える大型デュスプレイ&タッチパネル付きモバイルルータ」と考えれば納得できる増加ではないかと。

 テザリングや、Androidアプリがすぐ使える利便性に関しては思惑通りでした。OTGにも対応してるようです(USBメモリ認識しました)。

 となると、他にもいろいろやってみたいことが。


■スマホをカーナビにする

 カーナビアプリは常時通信必須ですので、テザリングなど設定せずそれ単体でサックリ使えることがメリットになるアプリのひとつだと思います。
 マップデータは最新、音声認識で目的地検索できるなど、カーナビ専用機にはないメリットありますしね。
 2年前に一回チャレンジして頓挫したのですが、G6を導入したことでリトライしてみました。

・≪Yahoo!カーナビ≫
 評判通り、ナビゲーションは充分実用的だと思います。以下に記す専用機(エントリー機ですが)とも比較してみましたが、ルート選定や測位性能やリルートレスポンスなど遜色ないというか勝ってるかも知れません。
 スマホはカーナビより画面サイズが小さいですけれど、致命的問題はなさそうです。
 気になるデータ通信量ですが、6時間くらいの高速中心の移動では200MBくらいでした。5日間の旅行でも合計700MB。このご時世、充分リーズナブルな容量ではないかと思います。
 ちなみに3Gでも充分使えます。

・発熱と電力消費
 かつて≪docomo DriveNet≫をN-05Dで使ってみた時は、暑い日は本体の発熱と日光で「過熱保護モード」になってしまうことがしばしば。こうなるとディスプレイが低輝度になって見えなくなるわ処理が追いつかなくなるわで使えません。
 あくまでも当時のことですが、ナビゲーション自体のデキがイマイチ(やたらと高速に乗せようとするなど)だったこと、有料だったこと、そもそもdocomoのデータ通信契約解除する方向でいたことから、あまり“使えるようにする工夫”はしませんでした。

 GPSを受信する必要がありますから、直射日光が当たらない場所にセットする対策は現実的ではないでしょう。そこで、G6をエアコン吹き出し風が直接当たる位置(といっても当たるのはG6の下半分くらいですが)にセットして使用してみたところ、真夏でも過熱保護モードにならず使えました。

 また、カーナビ動作はバッテリ消費しますので充電しながら使用できないと常用には不安があります。ので、「充電が消費を上回る」必要がありますが、G6では微妙ながらバッテリ残量は増えました。また、本体が熱くなると充電停止モードになる可能性がありますが、真夏でも大丈夫でした。
 なお、付属のACアダプタは5V/1A出力品ですので、1A以上の出力できるシガーソケットアダプタを使った方がいいでしょう(実際どれだけ電流流れてるのかは測ってませんけど)。

 カーナビ用途を考えるなら、なるべく日光で熱くならないよう色は白とかゴールドの方がいいかも知れませんね。

・カーナビ交換
 ITじゃないですけど、スマホの電源取りなどに関連しますので。

 富士通テン製カーナビECLIPSE AVN2204Dが壊れちゃったのでDIYで交換しました。≪Yahoo!カーナビ≫使えそうだとは思っていたのですが、スマホ持ってない時や通信できない状態もあり得ますので緊急避難的にもあった方がいいかなと。新しいカーナビ(中古ですけど(笑))試してみないと≪Yahoo!カーナビ≫の方がイケるのかどうかも解りませんでしたし。
 何より壊れたカーナビが2DIN占有してるのはキモチ的にヤだったので(笑)。

 その際、カーナビの電源周り(すべて12V)についてちょっと調べたので記しておきます。
 カーナビでは「CONTROL」って電源のことみたいですね。

 ・「CONTROL +B 専用AMP用」・・・設定やモードに依らず常時出力
 ・「CONTROL +B」・・・消音(PWRボタンを押す)にすると出力停止
 ・「ANT CONTROL」・・・アンテナ「下げる」にすると出力停止

 なお、安定化電源で実験してみると、3系統とも本体電源より0.4Vくらい電圧降下してました。

 新しく買ったAVN112Mの常時電源(BACKUP)のタグが「FUSE (10A) +B」であるところを見ると、「+B」とは“プラスバッテリ”の意でいいようです。設定値のバックアップやエンジン切った時にチルトを引っ込めたりするために使われる電源です(いわゆるバッ直)。当たり前ですがカーナビではACCがメイン電源になります。「バッ直」がバックアップで「ACC」がメイン電源っていうのは最初違和感ありました(笑)。
 AVN112MはAVN2204Dと異なり、消音にしても「CONTROL +B」は出力しました。カーナビをOFFするという概念があったころは切る仕様もあったけれど、最近はACCそのまま出力ということのようです。ACCを入力しちゃったのでその分を出力しとくって意味しかないような。

 「ANT CONTROL」はアンテナへの給電です。クルマのパワーアンテナを伸ばしたり、ブースタが入っている場合はその電源となります。
 ウチのクルマはガラスアンテナですので伸び縮み用電源は不要ですが、ブースタ有無は判りません(クルマ側に「アンテナコントロール」ケーブルがありますのでアリだとは思いますが)。試しに何も繋がないと、FMは感度低下しAMはざりざり、FM-VICSは「未受信」になりました。
 やっぱりブースタが入っていて電源供給必要ということですね。素直に「ANT CONTROL」を使った方がよいでしょう。設定項目はパワーアンテナ前提なので「上げる」で。
 AVN2204Dのインストール(カーショップに依頼)では何故か「CONTROL +B」がクルマ側の「アンテナコントロール」に接続されていました。実は消音にするとFM-VICS受信できてなかったんですね。

・デュアルナビゲーション
 スマホと専用カーナビの2台体制ってのは無駄でもないです。例えばスマホでメインナビ、専用カーナビは広域表示(方位固定を推奨)にしておくと、知らない土地でナビされてる際「どの辺りをどっち向きに走ってるのか」解るので、推奨されたルートが合ってるのか否かの不安を減らせます。


■スマホをカーオーディオにする

 クルマの中でCD聴くことはありません。HDDに録音するつもりもありません。カーナビにはSDカードやUSBメモリから音楽再生可能な機種もありますが、WAV形式対応機種って思いの外少ないようです。非対応の機種だと改めて圧縮ファイル作らなきゃいけないワケで、いちいちメディア作るのはメンドクサイですからたぶん使わないでしょう。なので必須機能とは考えず安い方がいいと判断しました。

 音楽再生プレーヤはスマホまたはタブレット。カーナビのアナログ入力を使って再生する方針です。

・オーディオノイズ
 ですが、再生機器の5Vをシガーライタソケットに挿したUSB電源アダプタから取ると、周期的なものを含むザザザノイズと「ひゅいぃ~ん」という回転数にシンクロしたオルタネータノイズが乗っちゃいます。
 シガーライタ系統ではなくカーナビの「CONTORL +B」出力から取るとオルタネータノイズは無くなりました。アース(GND)が近いせいでしょう。が、ベースノイズは変わりません。「CONTORL +B」は内部的にACCから分岐しているだけでノイズ除去などはされていない模様です。「ANT CONTROL」出力でも基本変わりませんでした。
 ベースノイズ、USB電源アダプタのアースをカーナビ本体のアースと同じところにかしめたところ、かなり減ってほぼ気にならなくなりました。
 なお、AVケーブルと電源ケーブルの位置関係もケアした方が良いようです。

 もしかしたら、USBケーブル(オプション)によるカーナビからの5Vならまた違うかも知れません。が、USBメモリからの音楽再生モード以外でも5V出力するのかや電流値足りるのかなどの懸念もあるので、買ってまで試すのはやめました。

・バッテリ駆動
 ノイズは概ね気にならなくなったのですが、結局、プレーヤ側をバッテリ駆動にすることでノイズレスにしました。万一の場合に備えてモバイルバッテリをダッシュボードに準備して。
 実際やってみると、miixでは6時間再生しても20%くらいしか消費しませんでしたので、充分実用的でしょう。

 Bluetooth機能があるカーナビで当該接続すればノイズは発生しないリクツですが、いかんせん高価。いろいろ配線など試してみてもダメだったらバッテリ作戦で電源切り離せばイイヤと思って安価なモデルにした次第です。
 バッテリ残量をケアしなくてはならない点が若干メンドクサイですが、車内で音楽聴くのは旅行時くらいなのでまあいいやと。

 なお、≪Yahoo!カーナビ≫の音声はカーナビに繋がずスマホスピーカからの音でガマンすることに(これならノイズは気になりません)。そもそも音楽再生してたらAVN112M出力にミキシングできませんしね。明瞭とは言えませんがカーナビとして支障はないレベルで聞こえます。


■スマホをデジタルオーディオトランポートにする

 とりあえずAudioネタに絡める意味で。強引ですけど(笑)。
 USB(OTG)接続でTEAC製DACユニットUD-503を鳴らせました。


■通話端末と通信端末を融合したい

 ということで、以下のモバイル体制に。

 ・通話端末:3G端末のN-05DにFOMA-SIM(通話専用契約)
 ・通信端末:4G端末のAscend G6にIIJ-SIM(通信専用契約)
 ・ネット端末:miix2 8

 結局3台持ちになっちゃいました。合計重量はどんどん重くなってるし(苦笑)。
 こうなるとスマホ2台持ちはいかにも無駄(笑)。できることなら通話端末と通信端末を1台にまとめたいです。
 ちなみに、通話専用でもSMS入力やアドレス帳管理などの面でガラケーよりスマホの方が便利かと。通信不要なアプリなら使えるワケですし。

 MVNO-SIMで音声契約すれば可能ですが、私の使い方だとFOMAの「タイプSSバリュー」に勝るとはいいませんが肉薄するようなプランがない。IP電話という手もありますが、電話はインフラなのでまだそこまで割り切れず。
 となると可能性は「デュアルSIM」しかありません。
 通話と通信は同時に出来なくても構わないので、両スロットとも4G/3G対応可のモデルが出たらと思っていました(正確には片方は3Gだけでいいんですけど)。
 また、≪Yahoo!カーナビ≫が充分使い物になり、≪GoogleMap≫の徒歩ナビも非常に便利なことから、G6よりもうちょっと大きな画面が欲しいなと。
 通勤電車中G6では明らかに繋がらない区間があるので、対応バンドも増やしたいという希望もあり。


■HUAWEI製P8liteに変更

 「両方4G/3G対応のデュアルSIM」で「5inch」で「docomoバンドに充分対応」していて、かつ「あんまり重くない」端末として選択しました。デュアルSIMでのFOMA-SIM(音声)運用が可能っぽいweb情報があったこともあり。



 好きな時に好きな端末に変えられる自由っていいですねぇ。
 以下プチレビューです。

・ZenFone2 Laserと迷ったのですが、145gと131gの差は大きいなと。また、カーナビとして案内音声は本体スピーカで再生して使う前提なのでボリュームキーが背面ってのはデメリットでした。さらに、スピーカは背面より底面(または上面・側面)の方がいいですし。
 SIMサイズが両方microでSDカード兼用じゃない点はメリットでしたけれど。

・対応バンドが増えたので、G6で圏外だったところでも4Gで元気に繋がるようになりました。

・IMEIが2個あります。IMEIってSIMスロット分あるんですね。

・ナビゲーションバーがハードキーではなく画面表示です。なのでアプリ画面が狭くなります。が、「戻る」と「マルチタスク」キーの入れ替えができたり通知ボタンを出せたりというメリット(目的)があるので許せるかな。ただのコストダウンではないということで。

・ステルスSSIDはやっぱりちょっとメンドクサイ。最初から判っていたので「ステルスON状態で手動設定」したけど繋がりませんでした。その後、「ステルスOFFで接続→ステルスON(切れる)→もう一度手動設定でスキャン」などをいろいろカット&トライしていたら接続できるようになりましたが、正確な手順はよく解りません(苦笑)。
 ステルスだとSSIDがグレーアウトするところからして、正式対応しているように見えますけど(笑)。

・SIM取り出しピンは紛失しそうです。クリップで代用できるのでしまっておいた方がよいかも。またはSIMアダプタを買うと付いてることありますね。

・ステレオに見えますがスピーカはモノラルです。右はマイクだって(笑)。

・≪Yahoo!カーナビ≫は、G6と同じく過熱保護モードなることもなくバッテリ消費が充電を上回ることもなく使えています。付属ACアダプタはG6と同じ型番で5V/1A仕様。

・OTG非対応のようです。G6で認識したUSBメモリ挿しても何も起こりません。盲点ですねぇ。


■P8liteでFOMA-SIM(通話)とMVNO-SIM(通信)のデュアルSIM運用に挑戦

 ということで、いよいよP8liteのデュアルSIM化実験です。
 なお、改めてですが、本稿のFOMA-SIM使用目的は通話機能のみです(11年9月に契約したタイプSSバリュー。通信契約なし)。
 以下、通信のみSIMを便宜上IIJ-SIMと記します(IIJなので)。

・シングル実装とデュアル実装で可能なバンド設定が異なる?
 まずはFOMA-SIMのみシングル実装でいろんな設定試してみました。
 が、電波掴むことはありますが、安定せず切れてしまいます。
 デュアル実装でIIJ-SIMを非アクティブにした場合もシングルと同じ状態になるようです。

 その中でふと気づいたことがあります。FOMA-SIM、シングルでは選べる「LTE/WCDMA/GSM自動」がデュアルだと選べなくなるのです。
 いろいろ試してみると、デュアルでも「デフォルトのデータ通信」を割り当てると選べるようです。シングル実装では自動的に割り当てられていたので選べたワケですね。
 ちょっと注意が必要です。

・バンド設定は連動する?
 IIJ-SIMを使う場合はFOMA-SIMスロットを非アクティブにする手もありますけれど、逆の可能性はありません。
 なので、使うSIMは「4G/3Gスロット」の切り替えで選ぶことになると思います。

 それを試している中で、気になる動作に気づきました。
 切り替え所要時間が、意外なことに“IIJ-SIMのバンド設定で大きく異なる”のです。
 以下、その挙動を順番に記します。FOMA-SIM側は「WCDMAのみ」、「デフォルトのデータ通信」デフォルトの通話/メッセージ」はIIJ側にて。

 ・「LTE/WCDMA/GSM自動」・・・IIJ→FOMAは平均2分くらいかかります。FOMA→IIJは20秒ほどです。
 ・「WCDMAのみ」・・・IIJ→FOMA切り替えも20秒くらいになります。
 ・「WCDMA/GMS(自動)」・・・上に同じ。
 ・「GSMのみ」・・・FOMAに切り替えても接続できません。
           両スロットとも「通信サービスなし(アンテナ×)」、SIMカードの電話番号の上も
           「NTT DOCOMO」ではなく「通信サービスなし」表示になってしまいます。

 「GSM」にしてダメダメな状態でFOMA-SIMのバンド設定を確認してみると、「GSM」になってるではありませんか。「WCDMAのみ」にしてあったハズななのに…そりゃ両スロットとも×になるワケです。
 そこからFOMA-SIMを「WCDMAのみ」に設定しなおしてIIJ-SIMに切り替えてみると、「GSM」だったハズが「WCDMA」になっています。

 他のパターンも試してみましたが、「変更したスロットのバンド設定がもう一方のスロットの設定に反映される」ようです。
 IIJ-SIMを「LTE/WCD,MA/GMS自動」に設定するとFOMA-SIMもそうなります。IIJ-SIMをそれ以外にしておくとFOMAでLTEは選べません。
 なんだか、前者は本来選べちゃダメなものが選べてる気がします。連動しちゃうならスロットごとに設定を分ける意味がないですし、IIJ側の設定によってFOMAでLTEが選べたり選べなかったりしますし、なんかバグっぽい気がしますが…(苦笑) 3G専用SIMってのが想定外なのかな?

 なお、「4G/3Gスロット」を割り当てないとバンド設定はできません。そりゃ“2Gのみ”のスロットにバンド設定もなにもあったもんじゃないですけど(苦笑)。

 それら事情を念頭におきつつ、いろんな設定で試してみました。

        P8liteデュアルSIM設定画面

 カード1がFOMA、2がIIJです。

・IIJ-SIMを「LTE/WCDMA/GSM自動」でトライ
 IIJ-SIMはLTEを唯一有効にできる「LTE/WCDMA/GSM自動」にしたいところです。GSMは要らないんですけどね。
 FOMA-SIMは「WCDMAのみ」にしたつもりでしたが、実は上記の通り「LTE/WCDMA/GSM自動」になってました。
 データ通信は切り替え作業を減らすためONのままで。

 IIJ-SIMを非アクティブにするとダメですので、両方アクティブにした上で「デフォルトのデータ通信」と「デフォルトの通話/メッセージ」の組み合わせになります。

                    FOMA IIJ
 デフォルトのデータ通信      ○
 デフォルトの通話/メッセージ   ○

⇒試しにやってみましたがやっぱりダメです。
 「デフォルトの通話/メッセージ」をIIJ側にしてもダメです。

                    FOMA IIJ
 デフォルトの データ通信         ○
 デフォルトの通話/メッセージ   ○

⇒一晩おいても切れないので「これでいけるか!?」と思って数日運用してみたのですが、やっぱり「緊急通報のみ」になることありました。また、スロット切り替え時になかなか掴まないこともあり。
 「デフォルトの通話/メッセージ」をIIJ側にしても改善はありませんでした。

 データ通信がONのままなことがちょっと気になりますが、「デフォルトのデータ通信」がIIJ側でもダメなのですから関係ないと推察します。

・IIJ-SIMを「WCDMAのみ」でトライ
 FOMAスロットがLTEも使える設定だとダメってことのような。Xi端末でFOMAを使えるようにする(ようになるかも知れない)設定としてはおなじみでしたので、それはアリかも知れません。
 ということで、IIJ-SIMを「WCDMAのみ」にしてやってみます。もちろんFOMA-SIMを「WCDMAのみ」にするためです(連動しちゃうので仕方なく)。
 データ通信はONのまま。

                    FOMA IIJ
 デフォルトのデータ通信      ○
 デフォルトの通話/メッセージ   ○

⇒試しにやってみましたがやっぱり短時間で切れます。

                    FOMA IIJ
 デフォルトのデータ通信      ○
 デフォルトの通話/メッセージ      ○

⇒短時間で切れます。
 FOMA-SIMに通信させようとすると切れちゃうということです。「非対応の通信機能が割り当てられてしまうため」でしょうか。シングル実装ですぐ切れてしまうのはこれが強制的に割り当てられちゃうためと考えるとツジツマも合います。

 データ通信がONであることの影響ですが、IIJ-SIMを非アクティブにしてデータ通信をOFFにした場合も短時間で切れましたので、ないと思っています。

 「通話+通信」「通信のみ」のSIMは想定されているけど、「通話のみ」SIMは想定外ってことですかね。

 では、FOMA-SIMでLTEを使えないようにして、かつ通信機能を割り当てないと?

                    FOMA IIJ
 デフォルトのデータ通信         ○
 デフォルトの通話/メッセージ      ○

⇒切れません!

                    FOMA IIJ
 デフォルトのデータ通信         ○
 デフォルトの通話/メッセージ   ○

⇒切れないようです。

 遂に“設定スイートスポット”見つけたかな。

 以上からすると、FOMA音声SIM+MVNO通信SIMデュアルSIM運用のキモは

 ・「FOMAに通信を割り当てない」
 ・「FOMAをWCDMAにする(LTEを有効にしない。GSMはあえて選べるようにする理由はない)」

ということのような気がします。
 それが一般論になりえるとするなら、それを実現するための個別機種設定としてP8liteでは前者のためにデュアルスロット両アクティブが必要となり、後者のためにIIJ-SIMも「WCDMA」に設定する必要がある、ということかと。
 16/01/14追記:ちなみに、アクティブにするFOMAじゃない側のSIMは未契約でも問題ないようです。

 バンド設定も変更しないとLTE通信が使えないというメンドクサさはありますが、SIM切り替えの所要時間は短くて安定していますので、常用は可能かと思います。2台持ちにして通信する時に電源入れて立ち上げるより手間ないかな。
 ただ、デュアル実装だとバッテリ消費が増えてるような気はします。シングルSIMで通信+通話をやったことがないので定かではありませんが、もしそうだとするとデメリットになりますね。
 あと、カーナビにしてる時は電話受発信できませんが、どうせ電話できませんからいいでしょう(笑)。旅行などで本格利用する場合はその間だけ通話端末を分けてもいいですし。

 なお、まだまる一ヶ月使った実績はありませんが、My docomoサイトで見る課金状態に異常は見られません(普通にタイプSSバリューで家族間無料になったり無料通話分が差し引かれたりしている。課金項目が増えたりもしていない)。

・「デフォルトの通話/メッセージ」とは何か
 お題目からすると「デフォルトのデータ通信」に対応して通話契約を割り当てる設定かと思っていたのですが、説明には「サードパーティ製アプリの通話/メッセージ用」とあり、「サードパーティって何?」と疑問も沸きます。そもそもこれを割り当てなくてもFOMA-SIM電波掴みますし。
 実は、これって「2G通話専用」の設定らしいです。どんな影響があるかはよく解りません。電波の掴みには関係なさそうですが…
 ざっくりですが、IIJ-SIM側にしておいた方がFOMA待ち受けの電池保ちがいいようなカンジなので、そうしておこうと思います。

 なお、デュアルSIMスロット切り替えアプリは用意されていませんが、「設定ショートカット」なるウィジェットで設定画面にダイレクトに飛ぶアイコンを作れます。


■FOMA-SIM(通話)がLTE対応端末でサックリ使えないワケ

 いろんな情報ありますが、今回調べて考えたことを記してみます。

・回線の技術的問題?
 もともとdocomoは、Xi端末ではFOMA-SIMは使えないとしています(他社製端末についてはそもそもすべて正式サポートなし)。
 が、現実的には使えるXi端末がある状態でした。が、ファームアップデートで動かなくなったというレポートもあります。
 4G端末でも通話は3Gを使っているので、「Xi端末+Xi-SIM」でも通話は3Gのハズです。MVNO-SIM(原則4G対応)でも通信(4Gも3Gも)・通話(3G)とも使えます。
 「Xi端末+FOMA-SIM」でもファームウェアによっては通話できることもあるし、「Xi端末+Xi-SIM」や「Xi端末+MVNO-SIM」でも通話(3G)可能ということは、回線の技術的問題(技適など)ではないと思います。

・docomoの政策的問題?
 docomoがXi契約普及のために意図的にXi端末でFOMA-SIMを使えなくしている=政策的な対応をやってるとしても、SIMフリー端末ベンダがそれをやる理由はありません。使える状況を増やして端末売れた方がいいのですから。
 しかし、例えばAscend G6は端末として正式にFOMA-SIM非対応を謳っています(*)。実際、W-CDMAのみに設定してもアンテナ立ちません。

*:http://consumer.huawei.com/jp/mobile-phones/support/faqs/detail/g6-l22-jp.htm?id=13601

・品質保証の問題?
 以上より、3G回線の技術的問題ではなく、かつdocomoの政策に無関係なのにダメな場合があり、繋がってたけどファームウェアによってダメになる場合もあるということになります。

 とすると、「品質保証していない」から?

『FOMA-SIM(3Gのことしか知らない)とXi-SIM(4G通信もするし3G通信もできるし3G通話もする)では同じ3G通話回線に対しても接続方法が若干異なり、端末側がそれにキチンと対応していないと接続を安定できない。けれど、(初期)Xi端末では仕様外なのに出来てしまう端末があったので、途中から敢えて出来ないようにした(仕様外=品質保証外なので)。他社製4G端末ではもともと接続保証はないので敢えて閉じてない例があり、繋がることがある』

ってなカンジでしょうか。
 もしそうなら、その対応はソフトウェア的なものでしょう。Xi端末で使えていたのがアップデートで使えなくなったり、裏技設定が存在することなどからハードは問題ないと思われますので。

・FOMA-SIM(通話)のデュアルSIM運用は本当に可能か
 上記想像が正しいとすると、「FOMA-SIM用3G接続方法」に対し、今さらdocomoが回線側で“端末側の変更を要する変更”を行うことはないでしょう。SIMフリー端末側がdocomoの政策に応じてアップデートで使えなくすることもないでしょう。
 よって、一度でも「FOMA-SIM対応」を謳ったSIMフリー端末、または繋がった実績がある端末なら、今後回線側も端末側も変更されることはなく、繋がらなくなることはないと推定されます。正式対応でない場合は確定的ではありませんが(*)、意図的に加えた機能を後日敢えて削除することはあまり考えられません。
 繋がった実績があり、もちろんデュアルSIM仕様で、かつ同時使用は不可でも最低3Gに両スロットとも対応している端末なら可能性はあるのではないでしょうか。

*:OSバージョンアップやバグフィックスや逆にバグ発生などで使える設定ができなくなる可能性は否定できませんので。

・FOMA以外の事情
 docomo以外=SoftBankの3G専用SIMとSIMフリー端末の情報はほとんどありませんが、SoftBankのページには「4G端末と3G端末でSIMを入れ替えると使えない」という記述(*)もあるので、そもそもFOMAに限った話ではなく「3G-SIMを4G端末に使う場合」の問題なのかも知れません。

*:http://faq.mb.softbank.jp/detail.aspx?cid=71652&id=71652

・IMEI(International Mobile Equipment Identity)事情
 端末(SIMスロット)の固有IDです。キャリアが2年縛りで端末提供したものの料金滞納した契約の対象端末や、盗難端末にネットワーク利用制限かけるもの、です。
 なので、最初からSIMフリーの端末には原則関係ないハズです。
 また、「ブラックリスト」運用されているハズなので、キャリアが販売していない端末=SIMフリー商品が最初から登録されているとは思えません。

・mopera事情
https://www.mopera.net/manual/other/simfree.html
 要するに、MVNOのプランにはISP料金も含まれていますがdocomoのプランには含まれておらず、ISPとしてspモードかmoperaの契約が必要ということです。spモードはdocomo端末専用プランですがmoperaはそうではないので他社製端末でdocomo-SIMを使って通信する場合に必要になると。
 いずれにしても通信の話で通話には関係ありません。spモード契約してなくても通話できますよね。

・MVNO側設備事情
http://smartmobilewithasim.blogspot.jp/2013/04/ocn-d-lte-980foma.html
 OCNモバイルONEは、当初FOMA端末では使えなかったが使えるように変更されました。SIMカードの交換などは行わずにです。
 つまり、「SIMカード・端末側の問題ではなくMVNO設備側が3G対応しているか否かによって繋がらないこともある」ということです。


■周波数帯

 以下を参考に購入端末検討しました。
 仕様表記は規格統一されていないようなので変換記載したことや、そもそも情報に間違いあるかも知れませんけれど。

・docomo対応バンド
 FDD-LTE:B1(2G),B3(1.8G),B19(800M),B21(1.5G),B28(700M:まだ整備中)
 W-CDMA:B1(2.1G),B6(800M:FOMAプラスエリア),B9(1.8G),B19(800M:ほぼ消滅?)

・P8lite
 FDD-LTE:B1/B3/B5/B7/B8/B19/B28 ・・・B21がない
 W-CDMA :B1/B5/B6/B8/B19 ・・・B9がない

・Ascend G6
 FDD-LTE:B1/B3 ・・・B19,B21,B28がない
 W-CDMA :B1/B19(? docomoのB19とは互換性ないらしい) ・・・B6,B9がない

・ZenFone2 Laser
 FDD-LTE:B1/B3/B5/B6/B8/B9/B18/B19/B28・ ・・B21がない
 W-CDMA :B1/B2/B5/B6/B8/B19 ・・・B9がない

・N-05D(FOMA端末)
 W-CDMA:B1/B5/B6/B19 ・・・B9がない

・SO-03C(FOMA端末)
 W-CDMA:B1/B2/B5/B6 ・・・B9,B19がない

*UMTSはW-CDMAのこと
*アンテナ表示の「H」はFOMA Hi-Speedのこと。つまり3G状態
*:http://www.atmarkit.co.jp/ait/articles/1511/16/news022.html


■おまけ

・IIJ-SIMのサイズ変更
 ある日曜の朝申し込んだら火曜の朝に火曜日に届けるとmailあり、実際届いた。全然1週間じゃないぢゃん(苦笑)。
 サイズが変わったSIMを挿したら、Android端末のデータ通信量管理はリセットされました。

・着信できない
 あるとき、自宅固定電話からの着信ができなくなりました。発信側では1回だけコールが聞こえて切れてしまいます。
 不審な設定は見当たらず。一瞬“非公式”運用してるから? かと疑いましたが、連絡先から削除したら直りました。


メインメニューへ

テーマ : スマートフォン
ジャンル : 携帯電話・PHS

デジタルオーディオことはじめ。

15/11/03初稿

 ちょっと大胆すぎるタイトルかも知れませんけれど(笑)。

 「サンプリング定理」を調べたことで、自分としては「デジタルオーディオのありよう」や「ハイレゾの意味」を概ね納得しました。
 間違いあるかも知れませんが、何かの参考になるかも知れませんのでそれらをポータル的にまとめてみようと思います。
 ただ、いろんな事情がある場合でも、煩雑さを避けるため詳細は個別記事(リンク先)に任せるとして言い切っている場合もありますことご了承ください。

 最終的には「聴いて良ければよい」のは言うまでもありませんが、デジタルオーディオのデジタル部分(DACがアナログ化する直前まで)のデータの変遷は主観的な嗜好ではなく客観的な理屈ですので、それを理解しておいてソンはないと思っています。

 PCとは本来DOS/Vパソコン(PC-AT)のことを指します。Macの場合はMac、ラズパイなどの場合はマイコンと記します。
 USB-DACを用いた構成でPCM再生を基本に。

 「LPF」はLow Pass Filterの略です。
 「OSDF」はOver Sampling Digital Filterの略です。


■PCMとDSDの原理を知る

・まずは「サンプリング定理」を理解する
 「如何に鳴らすか」を考えるためには、「如何に鳴っているか」を知る必要があるでしょう。
 それには、まずはPCMオーディオの基本「サンプリング定理(標本化定理)」を理解する必要があります。結構深いです、これ。

 例えば、実は「すべての波形はサイン波の合成とみなせる」というフーリエさんの発見を前提として知っておく必要があるのです。

 そして、「“現実には”サンプリング定理に完璧に則った記録再生はできない」ことがミソでした(*)。

*:「サンプリング定理」「フーリエ変換」の解説はたくさんありますが、普通は数学や情報工学としてのもので、「デジタルオーディオ」におけるそれらについて平易に記しているものはほとんど無いのでは。そのあたりを念頭に置いて情報にあたらないとワケワカンナクなると思います。

 その現実の中で「(安価に)理想に近づくためにDACチップがやっていること」こそ、デジタルオーディオ理解のキモだったんです。

 代表的なのは「理想記録再生のために必要な“理想LPF”に如何に近づくか」です。
 サンプリング定理に純粋に準じるなら、例えば22.05kHzまで記録再生するためには「22.05kHzまで通して22.05kHz以上をカットする理想アナログLPFが(記録時も再生時も)必要」ですが、現実的には不可能です。仕方ないのでちょっと妥協して20kHzまで通して22.05kHz以上をカットするLPFを構築することはできても、音質を保つためにはコストがかかります。

・アナログ信号じゃなくてデジタルデータをフィルタリング演算して解決
 そこで生み出されたのがデジタルフィルタです。デジタル演算によるOSDFすることで急峻なアナログLPFと同じ効果を安価に得ているのです。

 LPFとは、つまりある周波数以上の周波数成分をカットすることです。
 周波数成分的に言うと、阻止帯域(StopBand)周波数以上のサイン波成分をカットするということです。「サイン波=純音=倍音がない=ナイキスト内で取りうる最大周波数の波形はサイン波」ですので。
 何もしないとDA出力は次のサンプルまで値をキープ=零次ホールドされたのち次のサンプル値に急峻に変化しますが、それってDC成分と垂直波形ですので無限周波数(イメージングノイズ)を含んでいます。LPFはそのカクカクを無くすものです。
 デジタルドメインにて波形的に言い換えると、「阻止帯域周波数以上のサイン波成分が発生しない条件でサンプル間をならしていく」処理と見ることができます。

 あるサンプルとサンプルの間の値は自由に決められないのです。「ナイキスト周波数以上の周波数成分がないこと」という条件を満たす値でなければなりません。極端な値で繋ぐとナイキストを超える周波数成分になってしまうことは、ナントナクイメージできると思います。2サンプルの単純平均でないことも、例えばサイン波のてっぺんなどを考えればイメージできるのでは。
 自然界の音はカクカクしたりとんがったり直線になったりできず、必ず滑らかに変化する“波”になるのです(データとして三角波や矩形波は作れますが、それをそのように振動させることはできません)。
 ここでのデジタルフィルタとは、周辺のサンプル値から“波としてあるべき”中間サンプル値を算出することと言えます。そして、サンプル間をならす=サンプル数が増えることですから、オーバーサンプリングになるワケですね。

 LPF=ローパスフィルタと聞くと、なんだか高域をカットして少なくしているような印象(ノイズリダクション的な?)がありますが、名前に惑わされず「リコンストラクション演算」と捉えた方がスッキリすると思います。

・DACの理想は「アナログ原音」を復元することではない
 結構見落とされてる気がするのですが、デジタルオーディオシステムは録音時に“アナログとして空間に存在していた音”を記録再生することを目標にしてはいません。サンプリング定理を利用していますので、“ナイキスト周波数以下だけの音”が対象です。ですから、デジタル化した時点でナイキスト以上の周波数は存在しないデータになっています(しなければなりません)。
 DACシステムは、楽器や肉声が発音した「アナログ原音」ではなく、「ナイキスト以上をカットされたデータが示す音」にアナログ化しているということです。
 たとえアナログ原音がAD変換時のLPF性能によって変質(エイリアス歪みなど)してデータ化されていたとしても、変質した状態がDACシステムにとって再現すべき“原音”になります。

・波形編集ソフトの表示はDACで再生される波形ではない
 これも、理解の妨げになる勘違いのひとつとではないかと。
 編集ソフトの表示はサンプルのデータ値を並べたものです。当然サンプル間には何も情報はなくデータとしては離散してるワケですが、そのまま“てん”だけ表示しても解りにくいですよね。なので、“便宜的に”サンプル間を線で繋いで表示しているのであり、決して実際の再生波形を示すものではありません。解りやすくするための“補助線”と考えた方がいいでしょう。
 補助線は結果的には「リニア補間」再生した波形に近いハズですが、まれにTWEのように「零次ホールド」で表示するソフトもあります。

・デジタルフィルタはメーカが売り文句のために付けてる機能ではない
 繰り返しになりますが、再生時にLPFするのはサンプリング定理に基づく波形再構築処理(=リコンストラクション)ですので、決して余計な処理ではありません。デジタルでなかった時代はアナログだったのです。当然一長一短ありますので、演算でエコー成分が付くからといって「デジタルフィルタ=悪」という絶対論はないと思っています。
 必須機能ですから一般的なDACチップは必ず搭載しています。DACユニットが「選択可能なデジタルフィルタ搭載」と謳っている場合、DACチップが複数搭載しているフィルタの選択を解放しているだけのことも多いようです。もちろん独自フィルタを搭載している場合もありますので、「デジタルフィルタ搭載」「選択可能」といった売り文句についてはよくその価値を吟味した方がいいでしょう。

 OSDFをパスする「NOS-DAC(搭載しているフィルタをOFFして使う場合も含む)」というものがありますが、原理上必要なプロセスを実施しないのですから、高域にイメージングノイズが残ることは承知してシステムアップすべきと思います。例えば、「前段にアップコンバータ入れるので要らない」とか「後段にものすごく上質なアナログLPF入れるから要らない(*)」とか「192kHz以上のハイレゾしか聴かないから要らない」とか、はたまた「どうせウチのスピーカは20kHzまでしか再生できないからいいんです」とか「イメージングノイズ入りの音が好きなんだよ!」とか。

*:CD専用プレーヤなら44.1kHzに特化できますが、ユニバーサルなサンプルレートに対応するDACシステムでは特性可変の高音質アナログLFPって難しそうな気がします。素人ですけど。

・デジタルフィルタのパラメータ特徴はメーカ宣伝文句をイメージで鵜呑みにしない
 「Phase Response」が周波数に非線形だと波形変形が生じます。線形だと変形しませんがプリエコーが発生します。
 が、そのメリット・デメリットを“実際の音として”正確に提示しているメーカはほぼないと思います(難しいでしょうね)。
 ので、「プリエコーはやっぱり不自然だろうな」などとイメージで思い込まない方がいいでしょう。“エコー”と呼ばれてはいますがカラオケなんかとは全く違うモノですので。

・アップサンプリングとオーバーサンプリングとOSDFとアップコンバートを混用しない
 このデジタルフィルタ処理は、DACチップ内で行われる場合は「OSDF」、PC内で行われる場合は「アップサンプリング」と呼ばれるようです。が、やっていることと目的は同じです。例えば48kHzサンプルを2倍にした96kHzデータでは、元のナイキストである24kHz以上はLPFでカットされた領域になります。「新たに高音を増やす処理」ではありません。ていうか、逆に、「ない高域を生成する処理」と言った方がいいでしょう(イメージングノイズをイメージできないように確定させる)。
 一方、「アップコンバート」は高域成分を補間して付加するものです。
 同じくサンプルレートを2倍にするにしても、目的からして全く違うということですね。

 ただし、本Blogでは上記の意味で使っていますが、明確な規格・定義は無いようですから、本件に関する情報に接する際には、まず、どの単語はどの意味で使われているか確認した方がよいでしょう。

・イマドキのDACチップはPCMデータでも1bitストリームにしてからDA変換している
 イマドキのDACチップは、“高音質にするためには高コストになるアナログ回路の規模をデジタル技術によって縮小”しています。
 リコンストラクションフィルタのアナログ要素をOSDFを導入して減らしているのはその一例ですが、それだけではありません。DAコンバートの本丸回路でも行われています。

 例えば24bitマルチビットDACでは、1bit精度の電圧はフルスケールを1Vとするなら1/16777216Vになります。そんなアナログ回路を作るのは(現実的価格で量産するのは)至難の業です。
 そこで、どんどん進化する半導体技術を利用し、PCM信号をΔΣ処理で1bitストリーム信号化してDA処理を1bit化しているのです(*)。128や256fsレベルの周波数に変換しているようです。

*:ただし、リンク先に記している通り、実際のDACチップがやっているのは単純な1bit化ではありません。各社各様、かなり複雑な処理しているようであり、一概にマルチビットΔΣとも言えないのではと思います。
 ですので正確を期すなら当該話題の際には常にその旨付記するしかありませんが、本稿では主旨に影響ないと考え解りやすさを優先し代表概念として「1bit」と表記しています。


 つまり、イマドキのDACチップの仕事の大半は「サンプリング定理の安価で高精度な近似」と「アナログ化回路の低コスト化」のためのデジタル処理なのです。
 “DACチップ”ではありますが、“DAコンバート”処理は1bitストリームにアナログLPFかけることくらいなんですね。もはや“DAコンバーター”と言うより“デジタルプロセッサ”に近いかも知れません。

 さて、そのアーキテクトは規格があるワケではありませんので、DACチップごとに違います。

・フォーマットが違えばハードウェアの動きが変わるので当然音質は変わる
 例えばTI製DAC PCM1795はどんな周波数のデータにも8倍OSDFを常にかけています。
 つまり、2448データはDACチップ内で8倍の384kHzデータになります。2496データはやはり8倍で768kHzになります。OSDFフィルタの忙しさは後者が2倍ですし、ΔΣブロックが処理するサンプル数も異なるということです。

・DACチップが違えばアナログ回路はもとよりデジタル処理方式が違うので当然音質は変わる
 例えばAKM製DAC AK4490はPCM1795と異なり、おそらく入力信号の周波数によってOSDFの倍率は可変です。言い換えると常に8fsの352.8kHzまたは384kHzにしてΔΣブロックに送り込んでいると推定しています。例えば2448データは8倍ですが、2496では4倍されているのです。プレーヤ側で8倍アップサンプリングして送り込めばOSDFは働きません。
 TI製とは逆に、OSDF倍率が可変でΔΣブロックの処理は一定、ということです。

 同じ音源データでもDACチップが異なれば内部のデジタル処理動作は違うということです(アナログ部の違いだけではない)。
 送り出し側でアップサンプリングした場合は同じDACチップでも内部動作は変わるということです。
 もちろん、PCでやるアップサンプリングとDACチップ内のOSDFは同じ倍率でも異なる演算結果を出すでしょう。規格があるワケではありませんから、PassBandやStopBandなどの設定値が違えば結果は違うワケですから。

・「ネイティブ再生」「原音再生」とは何か
 「DSDネイティブ再生」とは、「1bitアナログ化回路にDSDデータ(1bitストリーム)をそのまま突っ込むこと」を指します(指すべきです)。そのまま突っ込めないDACチップはネイティブではないと考えています。ネイティブでないとダメというワケではありませんが、DACチップをLPFのみとして使おうというような場合はネイティブである必要があります。

 一方、PCMはサンプリング定理上リコンストラクションフィルタをかけて初めて再現(再生)できるのですから、フィルタしてこそ「PCMネイティブ再生」でしょう。デジタルでもアナログでも。
 その意味では、PCMって「理論上可逆だけど事実上非可逆の圧縮方式」と見ることもできるかもしれません。
 CHORD社などは凄いフィルタ処理で微細信号を復元するってがんばってますけれど、ソース製作時のAD変換性能やパッケージする際のダウンサンプリング性能を超える微細音はそもそも入ってないハズですよね。それら性能を超えた領域でもDA変換性能を上げれば音質は変化するでしょうけれど、それは録音時の音の再現性が向上したからではないでしょう。

 ですので、いわゆる「原音再生」って何を意味するのか微妙ですよね。再生側としてはミックスダウンされたひとつのストリームデータを「原音」とみなす他ありません。しかし、そのデータを“どう再生するのが「原音に忠実」なのか”は規定できません。「制作者がOKを出した再生音と同じ音」くらいは言えるかも知れませんが、アナログシステムはもとより上述した通りDACシステムによってOSDFなどのデジタル処理は異なるワケですから、その再現は無理でしょう。

・「ビット落ち」はフツウにしてれば発生しない
 デジタル演算でボリューム調整(フツウは下げるだけ)する場合、16→32bitなどに拡張して演算されるのがフツウでしょうからビットは落ちません。システムの処理性能(例では32bit)以上のリアルビット深度情報を持った音源はダメですが。
 逆に、イコライジングや以下に記すTruePeakなどでレベルが上がってフルビットを超えてしまう場合は、ビットは“溢れて”います。「クリッピング」などと呼んだ方がいいでしょう。
 いずれにしても、「有効ビットが1桁以上無効になる=情報量が減る」という意味での「ビット落ち」は、特殊な処理しない限り発生していないと考えていいと思います。


■ハイレゾの意味

 「サンプリング定理」に基づいて、よくなるリクツ(があるのか)を考えてみました。
 もちろん、実際に聴いて意味があるか(効果があるか)否かは別問題です。純粋に「レゾリューションがハイなフォーマットにするとどんな効果が考えられるのか」です。

・サンプリングレートの違いは「高域があるか」ではなく「元波形からの変形度の差」で捉える
 フーリエさん的に言うと“波形(音色)”は「基音」と「倍音」の合成で形成されています(サイン波だけは「基音」しかない「純音」です)。
 そして、音楽における楽器・肉声の波形としての最高周波数は4kHzくらいらしいです。
 つまり、普通の音楽において、4kHz以上の周波数成分は「倍音」ということです。
 フーリエさん的に言うと、波形に制限をつけない限り倍音は無限に必要です。数学的リクツですので。
 が、実際のPCMオーディオではナイキスト周波数までしか記録できません。
 ですので、ハイサンプリングのメリットとは、「より高い周波数の倍音が記録できるため波形の再現性が上がること」と言えます。サンプルレートが下がるほど「元波形からの変形が大きくなる」と言ってもいいでしょう。

 ハイサンプリングの意味を、例えば「単独の30kHzサイン波が聞こえるか否か」で考えるとハマります(笑)。

・DA処理の「可聴域との距離」も考慮する
 “AD変換の時点で”ハイサンプリングすれば、イメージングノイズ発生帯域を高くできますのでDA変換時にメリットがあります(OSDFの初段がすでに充分に可聴域外)。
 例えば384kHz(8fs)サンプリングならナイキスト周波数はDACユニットのポストフィルタの通過帯域を超えるでしょうから、プリフィルタは不要になります。実際、上述の通りAK4490ではそのように動作します。
 つまりデジタルフィルタのデメリットなしに再生できるということです。この領域に来ると「NOS-DAC動作は有意になる」とも言えます。
 この点においては高域に有効成分があるかないかは関係ありません。マスターテープのヒスノイズでもOK。
 逆に、デジタルフィルタのデメリット軽減を言っているのですから当然アップサンプリングではダメです。

・ハイサンプリングを有効活用するためにLFP特性を工夫する手はあるかも
 サンプリング定理本来のリクツで言えば、ナイキストが有効帯域より充分高ければAD・DAとも処理に余裕ができることで理想的なPCM録音再生に近づけます。が、そういう特性でよいことにしておく=規格化しておかないとDA側はそのように動けません。
 残念ながら「ファイル音源」にそういう規格はなさそうです。
 なので、逆に「ファイルの周波数特性に応じて再生側(DA側)で工夫する余地がある」と言えるかも知れません。メンドクサイですけど(笑)。

・ビット深度の違いも「ダイナミックレンジ」や「S/N比」ではなく「波形変形の差」で捉える
 16bitで表現するサイン波を見てみると、例えば1200Hzでは-60dB以下は波形再現性に難ありのようです。
 24bitなら問題なさそうです。これがハイビットのメリットでしょう。

・ビット深度が深ければリコンストラクション精度が上がる
 製作時に24bitあってもパッケージング時に16bitに落とされては、その後どんなにがんばっても24bit精度での波形復元はできません。逆に、ずっと24bit(以上)の精度を保てるなら、サンプリング定理に基づくリコンストラクションは途中16bitに落とした場合とは明らかに異なる精度で実現できます。
 これもハイビットのメリットだと思います。

・TruePeakが発生しにくくなるハズ
 PCMはサンプリング定理に基づいてOSDF(アップサンプリング)で元の波形を再現=再構築=リコンストラクションしていることをよく理解しない、または無視して作った音源は、「TruePeak」問題をはらんでいます。
 この問題はハイサンプリングになるほど発生しにくくなるハズです。
 そもそもピーク潰れを考慮しない作り方されたら関係ありませんけれど。

・比較試聴するなら、マスタリングが違えば音は違うのでフォーマットの違いのみを聴く必要がある
 リクツはありそうですが、それが実際の音楽波形のAD/DA環境(性能)上、はたまた実際に聴いて効果があるのかは別問題ですよね。
 聴き比べて体験したいところですが、売っているハイレゾ音源とCD音源ではマスタリングからして異なるでしょうから、同じ曲でもフォーマットの違いだけを聴き比べることはできません。CD音源でもリマスター版は全く音が違うことあるのと同じです。その点を無視した比較レビューはあまり意味がないと思っています。

 フォーマットの違いだけを聴き比べるには、ざっくり言うとハイレゾ音源をダウンサンプリングするのがよいでしょう。細かく言うといろいろ注意しなけれなならないことはありますけれど。
 なお、デジタルデータとしてハイレゾであることを確認してから試聴した方がいいと思います。

・比較試聴するなら、差分を再生できる能力を有するシステムじゃないと
 フォーマットの違いだけを聴き比べる条件を整えたとしましょう。けれど、再生システムがハイレゾを再生できないと比較になりませんよね。 
 ビット深度の確認は難しいですが、自分のシステムがハイレゾ領域の周波数を再生できているかはなんとか確認できると思いますので、確実を期す場合は確かめておいた方がキモチイイでしょう。

・「ハイレゾ対応」とは何か
 いろいろなオーディオ機器で「ハイレゾ対応」が謳われています。電源ケーブルにもあるそうです。
 “対応”には、「ハイレゾフォーマットの音楽ファイルが再生できる(扱える)」という意味と、「ハイレゾ再生に足るアナログ性能を有している」というふたつの意味があると思います。
 例えば、192kHzまでしか受け付けないDACチップでも、その前段でリサンプリングすれば384kHzでも768kHzでも再生は可能です。プレーヤソフトがダウンサンプリングして対応させることもあるでしょう。
 その機器が言う“対応”の意味は何か、正しく認識する必要があるでしょう。

・DSDだから良いとは言えない
 DSD64程度ではシェイピングされたノイズが20kHzくらいからもりもり出ていますし、ノコギリ波はノイズまみれになってます。
 確かにOSDF処理しない=インパルス応答しないため波形再現性は良好ですが、そういった事実を踏まえて評価すべきでしょう。
 また、PCMに変換する場合は「MaxPeak問題」にも気をつける必要があります。ヘタするとがっつりピーク潰してしまうかも知れませんので。

・おまけ:VSアナログオーディオ
 上述の通りデジタルオーディオは「近似」のセカイです。対してアナログは「加工」のセカイでしょう。レコードのRIAAイコライジングしかりテープのBIASやNRしかり。「近似」も「加工」も音への悪影響はありますよね。
 特にハイレゾになると、周波数帯域やダイナミックレンジのスペックはデジタルの圧勝でしょう。あとは「デジタル演算による近似」と「アナログ回路による加工」の悪影響どちらが“よりキライか”、ということではないかと。
 アナログの揺れとかムラとかノイズが好きというのは別として。


■ジッタを知る

 以下、「発振器」と「振動子」はごっちゃで記します(主旨に影響ないと思いますので)。ご了承ください。

・そもそもppmはジッタじゃない
 ppmで語られることがありますが、ppmを単位とするのはふつう「発振精度」です。“10年間で何秒の誤差”というヤツですね。クロック周期がぷるぷるするのがジッタですから、基本的に別のパラメータなことは自明でしょう。
 ジッタは「位相雑音」で語るべきものです。
 ホントにどれだけ影響あるのかは別として。

・ジッタを気にすべきはMCLKのみ
 最終的にアナログ信号に影響する時間軸の揺れはMCLKのみと考えるべきでしょう(リンク先で概念図を作っています)。だって、DACチップというかDACユニットの(音声再生に関わる回路の)基本クロックはMCLKしかありませんから。だからこその“Master Clock”。「デジタルプロセッサ」としてのDACチップの駆動クロックですし、入力されるデジタル音声信号も、そのパタパタはMCLKのタイミングです。
 DACユニット内にはそれ以外のクロック(制御用マイコン用など)もあり得ますが原則アナログ化には関係ありません。「そのジッタがDACチップの電源を揺らす」といった間接的な影響はあるかも知れませんが、もはやジッタというよりノイズと捉えた方がいいでしょう。
 また、「PC側の転送タイミング(例えばUSB Class1の1ms周期)の揺れ」はクロックレベルではありませんから、ジッタとは呼ばす別問題として考えた方がいいと思います。

・送信側(プレーヤ)と受信側(DAC)でMCLKクロックを同期しないと再生できない
 無理に再生するとサンプルダブリや欠損になります。
 極端な例ですが、お互いが±10%精度の10MHz発振器を使っているとして、PCのクロックがたまたま9MHz、DACのクロックがたまたま11MHzだったとしましょう。同期しないでサンプル転送したら足りなくなるのは明らかですよね。
 ですので、Tx側とRx側で必ずクロックを共有する必要があります。
 ですが、S/PDIFなど大半の機器間I/FではTx側のMCLKをRx側に転送することはできません。
 ですので、Rx側では、PLLを用いてTx側のMCLKに同期したMCLKを生成しています。

・PLL<原発振
 しかし、PLLのジッタ性能は水晶の固有発振たる発振器の原発振より原則として低いです。生成周波数を可変できるくらいですから仕方ありませんよね。
 I2SのマスターモードだとTx側からクロック(といっても普通MCLKは来ませんが)を転送できますが、たとえば汎用マイコン上には44.1kHzや48kHzの256倍や512倍といった発振器は搭載されていませんから、当然PLL生成されたものになります。
 「Tx側からデータに同期したクロックが送られてくるからと言って絶対的にありがたいモノとは限らない」と思っています。
 I2SにはRx側からクロックを送ってTxを動作させるスレーブモードもありますが、これに対応したシステムはあるのかな?

 ところで、TxマスターならRxはスレーブですし、TxがスレーブならRxはマスターです。マスター・スレーブはTxとRxに必ず共存するワケですが、本Blogでは、モード表記は基本的にデータ流れの上流側(Tx側)観点で行っています。

 「PC側の転送周期の揺れはジッタではない」と記しましたが、「転送クロックの揺れはクロックジッタ」でしょう。ですので、Rx側がPLLでMCLKを生成する場合は、Tx側から送られてくる転送クロックのジッタはそのままPLL結果に影響することになります。

・クロックは非同期が望ましいけれど、データレートは同期する必要があるという矛盾
 MCLKは基本サンプリング周波数「fs(44.1kHzまたは48kHz)」の256倍や512倍の周波数が用いられます。DACユニット内ではDACチップの動作クロックになります。上記の通り、S/PDIFなどではRx側でTx側に同期生成します。
 S/PDIFではTx側のMCLKで司られるビットレートでリアルタイムにサンプル転送してきます。1644なら隙間なく1秒間に88,200サンプル送ってきます。ですので、MCLK同期したシステムではサンプルダブリや欠損は発生しません。

 しかし、DACチップの動作クロックは上記の通りPLLではなく原発振の方が望ましいワケです。
 しかし、クロック同期せずRx側独自のMCLKを用いるとサンプルダブリや欠損が発生します。

 それを発生させないためには、ある程度のバッファを設けリアルタイムより速いビットレートでI/Fし、Rx側からTx側に「待て」「もっと」の制御が出来ればよいワケです。

 USBアシンクロナス転送はそれを可能にしています。1644の場合、Class1なら1ms単位でステレオ44サンプルまたは45サンプルをやりとりし、Rx側はそれをバッファし、独自のMCLKに基づいてそれを再生処理します。MCLKの精度差によってサンプルが余ったり足りなくなったりしますが、その際は「余っちゃうから1回分パス」「足りなくなりそうだから2回分一気に送って」といったやりとりをします。
 これにより、Tx側とRx側が独自のMCLKを持っていてもマクロなデータレートを一致させることができるため、サンプル欠損を防げるというワケです。
 S/PDIFでは不可能なのは一目瞭然でしょう。一方通行ですからTx側はRx側の事情なんて聞く耳持ちません(持てません)し、結果的なビットレートは「サンプルレート×ビット深度×2ch」で固定ですから、レート的にも「待て」は出来ても「おかわり」は出来ません。

・DACのMCLKに原発振を使えるのは事実上USBアシンクロナスモードのみ 
 PCを絡めたコンスーマオーディオとして機器に潤沢な選択肢があるという条件では、現時点ではこれしかないハズです。
 I2Sは上記の通りですし、そもそも機器間I/Fではありませんし。
 外部クロックを入れられるPC用サウンドカードもあるようですが、基本、業務用ですよね。
 PCレスならDACユニットのクロックをトランスポートに入れる手があります。両方に外部クロックを入れることもできますが、それはMCLKじゃないと結局PLL生成することになります。

 なので、DACのMCLKの健やかさに重点を置くのなら、表題の理由から機器間I/Fは「USBアイソクロナス・アシンクロナスモード」一択と思っています。
 もちろん、業務用機器も視野に入れたり、MCLK以上に重視すべき点があるならこの限りではありません。例えばハイレゾマルチをやるためにHDMIを使う時など。

 ちなみに「isochronous」は同時・等間隔といった意味。「asynchronous」は非同期(synchronousの否定形)です。


■PCオーディオの遊び方(の一例)

 上述したデジタル音声処理事情・DAC事情を踏まえて“PCオーディオの遊び方”を考えてみます。

・デジタルデータのアナログ化に必要なデジタル処理を、PCオーディオはどこでやるか変えられる
 PCMデータはOSDFされΔΣ変調され1bitストリームとなり、LPFでアナログ化されます。
 DSDデータはネイティブ再生システムならそのままLPFでアナログ化されます。

*:厳密に言うと、ΔΣブロックでは1bitストリームの周波数までPCMをさらに“オーバーサンプリング”しています。256倍ならOSDFで8倍されたデータをさらに32倍してから1bit化しているようです。OSDFよりシンプルな方法(ゼロサンプル挿入?)でやってると推察しています。

 この処理プロセスはどんなシステムであろうと原則変わりません。
 そして、PC+ネイティブDSD再生可能なDACユニットなら、これらの処理…OSDF(PCでやるならアップサンプリング)をどこで何倍までやるか、ΔΣ変調をPCでやるかDACでやるかは設定・構築次第です。

 例えば≪foobar2000≫とUD-503(AK4490)で1644データを鳴らす場合、極端な例として

・≪foobar2000≫側では何もしない場合
 ⇒ UD-503側(というかAK4490内部)で8倍OSDF→ΔΣブロックで32倍オーバーサンプリング(合計256倍)
   →ΔΣ変調で1bit(11.2MHz)化→LPFでアナログ化

・≪foobar2000≫側で全部やっちゃう場合
 32倍アップサンプリング→ΔΣブロックで8倍オーバーサンプリング(合計256倍)→ΔΣ変調でDSD256化
 ⇒ UD-503側でLPFでアナログ化

という鳴らし方ができます。この間をとった設定はお好み次第ということですね。ソフトウェアによってはフィルタ特性やDSD変換演算の設定もできます。
 ΔΣ以降をDACチップ側にやらせる構成なら、アップサンプリングとOSDFを双方で行うこともできます。AK4490相手なら、PC側で2倍したらDACチップ側では4倍になるワケです。PC側で8倍して送り込めばOSDFはバイパスされますからDACチップを「ΔΣ変調&アナログLPF回路」として使うこともできます。
 PCで2倍、UD-503内蔵のFPGAで2倍、AK4490で2倍=合計8倍なんて設定も。

 PCオーディオ(設定可能なソフトとDSDネイティブ再生可能なDACユニット)なら、音源データのデジタル処理システムをかなり自由に構築できるということですね。

・PCで処理するかDACでするか
 どっちでやってもいいとしていも、高性能な方でやらせたいですよね。
 ですが、上述した通り実際のDACチップの仕組みは複雑ですので、言うまでもなく単純比較はできません。例えばPC処理して送り込む場合は当然シングル1bitストリームですが、DACチップ内部処理はそうではありません。
 なので正確には解りかねますが、個人的にはPC処理はDACに勝るとも劣らない(少なくとも使い物になる)と判断しています。
 DACチップのΔΣ変調演算は64bit浮動小数点精度ではやってないハズ、と(笑)。


■余談

・情報との向き合い方
 ネットや雑誌などでいろいろな情報が発信されていますが、「WindowsはダメでMacの方がいい」「x86はダメでマイコンボードの方がいい」といった音質比較を参考にする場合は、その条件をよく確認した方がよいでしょう。
 例えば、WASAPI排他モードやASIOではない環境で比較されたらWindowsに不利です。USB-I/Fがアダプティブのマイコンとアシンクロナスのx86だったら前者が不利です。

 また、「~ノイズフィルタ」「~インシュレータ」といったチューニングについても、電気信号系やメカ振動系に変化を与えるワケですからその影響はシステムによって千差万別でしょう。「音質が良くなったか否か」ではなく「パラメータとして有意か(変化があるか)」の観点で見た方がよいと思います。

・“Noise”は「雑音」?「歪み」?
 エイリアシングノイズやイメージングノイズは、「折り返し雑音」と訳されることも多いですが、個人的には、どっちかというと「歪み」という訳の方がいいと思えます。「雑音」というとどうしてもS/N比的なものを想像しちゃうので。古い?(笑)
 エイリアシングは明らかに波形を変形させますので「雑音」はどうかなと。イメージングの方は確かにナイキスト以上に発生する周波数成分ではありますが…
 いずれにしろ、これらはデジタルデータ(離散的)であるが故に存在するものなので、たとえ「雑音」と訳されていてもアナログ音声的なノイズの概念で捉えないことがポイントかと思います。

 「位相雑音」なんかは雑“音”じゃないですよね。

・なんでビット数が“深度”なの?
 これも微妙に腑に落ちない感あります。「bit depth」の訳だからでしょうね。欧米の人にとっては「細かさ」というより「深さ」のイメージなんでしょうか。



 さて、ここからは上記をふまえた現時点での個人的な考え方です。
 個別事情や考え方はいろいろありましょうからもちろん客観論にはなり得ませんが、とりあえず参考まで。


■PC-Audioシステムチューニングコンセプト

・システムチューニングは「帰納法」で考える
 人はアナログな音波として音を聴いて(感じて?)います。
 アナログ信号を生成するのはDACチップです。
 データはDACチップまで改変なく届いています。
 なので、音を良くするためにはDACチップを健やかに動かすことをポイントに考えるとよいのではと思っています(アナログだけでなくデジタルの部分もその観点で考える)。DACチップ以降のアナログ段も当然関連します。

 その“おおもと”から遡ってシステムの在りようを考えると効率いいのではないかと。

・MCLKを極力キレイにする
 位相雑音性能が良い水晶発振器を搭載したDACユニットを選びたいですね。44.1kHz系と48kHzで原発振を使うためには、それぞれ用の水晶を搭載している必要もあります(でないと片方はPLL生成)。
 ですが選ぶだけでなく、その原発振がそのまま使えるように動かす必要もあります。

 ⇒そのためには、上述の通り、現時点現実的には「USBアイソクロナス・アシンクロナスモード」を使うしかないと思っています。

・アナログ化までの忙しいデジタル処理はDACにやらせない 
 PCM再生に必須の処理「OSDF」「ΔΣ変調のための単純オーバーサンプリング」「ΔΣ変調」は、PC側でやるのとDACチップ側でやるのでは、どちらがDACチップのアナログ化回路に有利でしょう?

 ⇒DACチップ内のデジタル処理はより少ない方が、DACチップとしての電源変動やノイズ発生が少なく済むのではないかと思っています。とするなら、送り出し側で出来るデジタル処理は極力やってしまった方がアナログ化回路を健やかに動かすためにはよいのでは?
 当然、PC側処理がDACチップのそれに決定的に劣っていない(差し引き当該メリットの方があり得る)ことが条件です。確証はありませんが個人的にはそのように判断しています。
 ということで、今のところ「PC側で悉くやっちゃってDSD256化して送り込むことでDACチップをアナログLPFとしてのみ使う」作戦をとっています。
 DSD音源を聴くためではなく、このためにネイティブDSD再生を利用するワケですね。

・DACチップに供給されるアナログ電源とデジタル電源とGNDの質を高める
 DACチップから出力されるアナログの質を高めるためには、まずはこれでしょう。
 1点アースなどの工夫はありますが、DACチップのデジタルGNDとアナログGNDはアイソレートされてはいませんので。

 ⇒そのためには、DACユニットの電源部が良質であることが必要でしょう。
 そのためにはそういうDACユニットを用いるしかありませんが、ユーザとしても投入する電源をキレイにする工夫ならできそうです(ACでもDCでも)。チープなACアダプタ電源(当然イマドキはスイッチング電源)などの場合、そこに手を打つなどです。ERIでも、かつてDC電源の浄化、なんてやってたことあります。
 ただ、“付属品で音質チューンされている可能性”もありますけれど。

 また、「非Audio機器」は極力システムから排除した方がいいと思われます。AC電源を汚す可能性がありますので。
 システム構成で言うと、例えば以下の例ではどちらがシステム全体が低ノイズ=DACチップ(の電源)に優しいでしょう?

       PC       →   DACユニット
 (ATX電源,アース接地)  (Audio機器電源)

    NAS   →  ハブ   →  マイコン →   DDC  →  DACユニット
 (ACアダプタ) (ACアダプタ) (ACアダプタ) (ACアダプタ) (Audio機器電源)

 なお、水晶発振にも電圧必要ですので、発振器用電源もキレイにすべきであり、それはDACチップ用電源とはセットになると思います。

・USBで接続されるPCのGNDとUSB5Vからノイズを貰わない
 PCの5V品質はオーディオグレードからはほど遠いでしょう。ですのでUSB5V(バスパワー)動作のDACユニットは原則的に不利だと思います。
 「5Vを外部供給にする改造する手がある」というのはメリットかも知れませんけれど。

・出来ることならPC側とDAC側を電気的アイソレートしたい
 USBケーブルでのアイソレートは現実的ではない(USBアイソレータという機器もなくはないですが)でしょうから、内部でそういう回路を持っているDACユニットを選ぶしかないでしょう。といっても100%影響をカットできるものではないと思いますけれど。
 ノイズ低減という意味ではUSBフィルタという手もありますが、ノイズは結局GNDに逃がすので、効果を出すにはひと工夫必要そうです。
 PC側からの5Vをカットしても動くDACユニットを用いるという考え方もあります。USB規格からは逸脱すると思いますが、そういう製品もあるようです。ただし、それでもGNDは繋がざるを得ませんが。

 かつてはDDCのワイヤレス化なんてやってましたが、ホントは「光USBケーブル」欲しいですねぇ。HDMIは光化できるんだから技術的には出来そうですけれど。市場性の点で無理かな。

・そもそもPC側のGNDやUSB5Vがよりキレイであるに越したことはない
 クリーンアップするにしても元からいいほうがいいですよね。なので、CPUを初めとするPC部品は極力低ノイズで動いて欲しいところです。

 ⇒そのために低消費電力PCにするという考え方があります。
 が、電源にチープなスイッチング方式のACアダプタを使ったりしたら意味ないかも知れません。また、「低出力電源は低ノイズ」とは限らないでしょう。もしかすると高級ATX電源かつGNDをアース接地した方が低ノイズかも知れません。
 また、M/B上には複数電源を生成するDC/DCがありますが、これらも低ノイズ性能のパーツ・回路(当然高コスト)の方がよいワケで、オーバークロック用やゲーミング用の高級M/Bの方がその可能性は高いでしょう。
 ですので、低消費電力の安価なシステムより、高性能で高価なシステムの方が電源品質がよい“可能性もある”のではないか、と思っています。CPUの安定動作には高品位な電源・GNDは欠かせませんし、強力な電源・GNDはCPU動作(電力消費変動)に影響を受けにくいものですので。速いPCの方がUSBノイズが必ず大きいとは言えないと思います。

 要はUSB経由(可能性としてはAC経由も)でDACユニットに伝わるノイズが小さければよいのであり、DACユニットにしてみれば送ってきた相手が高速PCか低速PC(またはマイコン)かは関係ありませんから、そのためにどんなPC(マイコン)を使うかはチューニング手法のひとつと言えるでしょう。

・USBデータラインを低ノイズ化する
 USB電源と同じく、DACユニットに入れるUSBデータ信号も元からキレイな(低ノイズな)方がよいでしょう。

 ⇒そのためには、USBコントローラはオンボードではなく拡張カードの方が有利なのではと思っています。USB5Vの観点でも、カードによってはPSUからダイレクトに受けた5Vを使えるものもあるようですし。そういうカードなら、改造すればバッテリ駆動も可能かも知れません。
 また、USBは「差動信号」ですので(バランス接続みたいなもの(笑))、USB+とUSB-のケーブル長が等しくないと信号乱れが発生するでしょうから、そういった配慮がなされたケーブルの方がよいでしょう。

・USBの転送タイミングを安定させる
 フレーム周期はClass1なら1ms周期、Class2なら125usです。この周期がより安定していた方が、送受信双方ともデジタル回路の動作タイミングパターンが安定するのでは。

 ⇒そのためには、送り出しシステム内部で生成される周期がより均一である必要があります。例えば、124usと126usが同じ比率で出現することでマクロ的フレームレートの帳尻が合っている状態より、毎回キッチリ125usでI/Fした方が受け側DACユニット内の後段も安定するでしょう。
 USB-DACユニット内にはUSB-I/Fチップがあり、PCからUSBを受信し、それをDACチップが理解できる信号(通常はI2S)にデコードし、DACチップに送信しています(アシンクロナスモードの場合、ここでバッファリングとフィードバック制御することで受信側と送出側のクロックが非同期でもデータ欠損しないようにしています)。このチップのPC側動作が揺れることでDACチップ側の信号にも影響を与える可能性を考えています。

 ⇒そのためには、転送のための割り込み応答性を高くすべきです。
 組み込み用の「リアルタイムOS」でUSB転送のプライオリティを上げるのは正当なアプローチと思われます。
 軽量OSとマイコンの組み合わせも、この効能が大きいのかも知れません。
 PCにおいては、クロックやコア数の性能が高い方が有利な可能性があると考えています。
 また、USB3.0のxHCIの方がUSB2.0のEHCIよりシステム負荷が低いようです。
 「システムは遅い方・古い規格の方が有利とは限らない」のでは、と思っています。

 また、OSチューンもこの効果を狙ったものと言えます。

・低ノイズ・低負荷でソースを取得する
 USBの低ノイズ化・転送タイミング安定化のためには、USBコントローラに送り込むソース(音源)取得のための負荷やノイズを極力減らす必要があります。

 ⇒そのためには、音源格納ストレージとのI/Fコントーラや制御システムにつき、割り込み負荷やノイズ発生などの点でどれが有利かよく比較検討する必要があるでしょう。SATA(PATA?)-I/Fの内蔵、USB-I/Fの外付け、SDカード(大抵はUSB経由)、USBメモリ、ネットワーク上のNAS、HDDかSSDか、などなど。
 例えば、内蔵SATA-SSDなら「SSDとSATAコントローラの制御負荷とノイズ」、NASなら「LANコントローラとEthernetの制御負荷とネットに繋がれた機器からLANケーブルおよびAC経由で流入するノイズ」、“どちらがマシか”という比較になります。
 外付けUSBドライブからRAMディスクにアルバムコピーしてドライブ外してしまうことで、再生中は音源ストレージレスにするなんて手もありますね。
 ちなみにこれらI/Fではどれもエラーしたら再送されますので、再生される音声のデータエラーは“なし”で同じです。
 また、アタリマエですが、I/Fのタイミングや転送クロックは、どれもオーディオのサンプリングクロックとは全く関係ありません。
 PCのI/Fですから。

・システムのGNDをキレイに(強力に)する
 ざっくり言うと、特にPC(に類する機器)を組み込んでいることに着目した「グランド安定化」がキモではないかと。
 特に「アース」については、後回しにされがちですが実は非常に影響大きいパラメータのようですから、早めに熟考すべきと思っています。
 普通の国内用オーディオ機器は、たとえ3pinインレットでもアース機能ありませんし。
 逆にPC(ATX)はアース前提の機器ですし。


 もちろん正解はありませんけれど。


メインメニューへ

テーマ : オーディオ
ジャンル : 趣味・実用

ERIへようこそ

Author:らかせ
 「最新記事」または「メインメニュー」からどうぞ

・ファイルへの直接リンク以外はリンクフリー(連絡不要)です
・一応、拍手にコメント(非公開)付けられるようにしてあります
・DB的に利用しており、過去記事もガシガシ書き換えています。特に「最新記事」は初稿から一週間くらいは直してることが多く、大幅に変わっちゃうことも。ご了承ください
・ということもありますし、記すまでもないですが無断転載(ファイル含む)はご遠慮ください
・引用の考え方については「007:諸事」をご参照ください
・アフィリエイトはAmazonのみです
・ハイパーリンクは当Blog記事のみです(054:節電記事のみ例外)

最新記事
カテゴリ
検索フォーム
FC2カウンター