ジェネレーションはギャップしているか

17/10/14初稿

 トランスポートPCをX79からZ170に組み替えました。ASUS製Z170-Aです。

 CPUは6コア12スレッドのCore-i7 3930K(3.2GHz,TDP135W)から2コア4スレッドのPentiumG4560(3.5GHz,TDP54W)に。
 マルチスレッド性能としては大幅グレードダウンですが、世代としては第2世代(のエンハンスですけれど)SandyBridge-Eから第7世代Kabylake(M/Bはひと世代前ですけれど)へのジャンプアップとなります。

 ジェネレーションギャップ、(だいたい)5世代分の影響や如何に?


■動機

 Z170構築の際NVMeについてさんざん調べた流れで、「オーディオPCのストレージをCPU直結のNVMeにしたらどうなるか」興味津々になっちゃいまして。
 だって、USB-I/FはすでにCPU直結していますから、そうすれば音源データをCPUを経由するだけで送り出せるような気がするではないですか。PCIe-I/FのSATAコントローラカード経由のSSDでも直結できますが、“よりシンプル”でないと魅力半減ですのでNVMeです。
 でも、現X79はNVMeから起動できないんですよね。システムも音源も1台に入れてしまいたいので、X79では実現できないということになります。
 そこに、Z170マザーが1枚余ってるワケで。壊れたと思ったのですが修理に出したら簡単に直っちゃったんです。
 といってもCPUは新たに調達しなければなりません。NVMe化に効果あるのかどうか不明ですから、お試し価格でないと踏み切れません。
 そこに、ちょうどオイシイ新CPU「PentiumG4560」が発売されてたワケで。



 Pentiumは、X79を組んだ時は2コア2スレッドでしたので候補になりませんでした(流石に4スレッド以上は欲しかったので)が、新型は2コア4スレッドになりました。
 Gfx性能や動画アクセラレーションなどの付加機能は要りませんので問題になりません。
 スレッド数は1/3になるワケですが、3930Kでの負荷状況をみる限り処理能力的には全く問題ないハズです。
 G4560はKabylakeですが、Z170-AのUEFIはメインPC用の6700Kでアップデート済みですから使えます。

 しかし、X79導入理由である「スレッドが多い方がよい」が世代を超えても成立するなら、音質的には退化してしまう可能性があります。
 もしそうだったら代替はあきらめてサブマシンにします。どうせ余ってたM/Bに安価なCPUの組み合わせですので。
 トランスポートとしてちょっとでも可能性を感じた場合は、メインマシンの6700Kを使って継続実験してみるつもりで。


■構成

・ハードウェア
 以下のような違いになります。

・メモリ・・・DDR3 → DDR4
・メモリチャンネル・・・4 → 2
・メモリ枚数・・・4 → 2 (いずれも4GBモジュール)
・クロック・・・3.2GHz → 3.5GHz
・コア数・・・6 → 2
・スレッド数・・・12 → 4
・プロセス・・・32nm → 14nm+

 DDR4メモリはメインPCZ170化の際に4枚用意したCorsair製を2枚流用。
 その他、CPUファンのみリテール品に変更した以外は拡張カード類もそのまま移築しました。
 メインテーマだったストレージもとりあえず元のSSDのまま。512GB以上のNVMeはおいそれと買える値段じゃありませんので、まずはZ170環境にしたことによる影響を見定めます。

 スロット使用状況は以下のようになりました。
 Z170-AにはPCIスロットがあるので「NO-PCI」が無駄になりません。PCIeからの変換PCIですがNO-PCIには関係ありませんし(笑)。

・slot0:PCIe x1 NO-PCI Express
・slot1:PCIe x16 PP2U-E  CPUに一番近いところに配置(CPU直結)
・slot2:PCIe x1 空き
・slot3:PCI   NO-PCI
・slot4:PCIe x8 空き(CPU直結)
・slot5:PCIe x1 空き
・slot6:PCIe x4 HD7750  表示用&HDMI-Audio用I/Fとして

 3930Kと異なりG4560には内蔵Gfxがありますが未使用に設定します。オンボードデバイスも極力disalbeです。山ほどあるチップセットUSBはBluetoothドングルと調整用K/Bのために2ポートのみ活かしてdisable。

・OS
 システム入りストレージを再インストールすることなくそのまま移築したワケですが、問題なく動いています。Bluetoothドングルも何もせず認識。なのでオーディオ系のセッティングもそのままです。
 CreatorsUpdateはMSがオーディオ関連で“やらかしている”ようなので、とりあえずクリーンインストールせずに様子を見た次第。
 UD-503でテストしてみたところでは、クリーンな状態からなら問題は起こらなそうですけれど。


■電力

 CPUのTDPはまるで違います。DDR4は低電圧化しています。DIMMは4枚から2枚になっています。
 が、それ以外はほぼ変更なしで以下の通りです。ワットチェッカにて。

・再生時  ・・・35W
・アイドル時・・・31W
・起動時最大・・・50Wくらい

 再生動作は「«foobar2000»による1644音源の32倍アップサンプリング→DSD256変換」です。

 解体直前に測ったX79の再生時は60Wでした。
 X79構築当時はHD5450が実装された状態で64W(条件はやや異なります)でしたので、HD5450で4W消費と推定。
 とすると、アイドルは当時61WだったのでHD5450レスならざっと57W程度でしょうか。
 起動時最大の低下に至っては“劇的”と言えるでしょう。

 スレッド数は1/3になりましたが、これはこれでよさげな気が(笑)。


■負荷

 では、気になる負荷状況はどうでしょう。タスクマネージャで比較してみます。システム入りSSDをそのまま移築しての比較です。動作モードは電力と同じです。
 まずはZ170。

Z170-A負荷2


 X79では同条件で以下の通りでした。

X79負荷2


 X79では4%/2.3GHzくらいでしたが、新システムは12%/1.5GHzくらいになりました。

 使用率が3倍になっていますがスレッド数が1/3ですからそのまんまってカンジです。一方動作クロックは低下していますから、その分処理効率は上がっていると言えそうです。

 やっぱり5世代も違うと違うところは違いますねぇ。


■音質

 変わったように思います。クリアでシャープになったカンジでしょうか。といって高域がキツイなどというワケではありません。

 ところで、やっぱりメモリ設定いじると変わる気がします。
 電圧はデフォルトの1.2VのままだとX79より音量下がったように聞こえます。最低の1.0032(?)にするとX79と似た音色に。デフォルトの方が好みです。1.0Vにしたらリセットしちゃいました。1.1Vにしたら低域がふくれた感じに。1.2Vで2400MHzにしても同じです。
 どうも、かつてのE-350環境での経験とは異なり、電圧下げると好ましくありません(苦笑)。
 スピードは100MHzの24倍で2400にしてみました。XMPで2666なのでそれを超えないところで。が、これも好ましく聴こえません。
 キリがありませんし、E-350の時ほどの関心はないので追い込んだりはしていませんが、結局、“Z170-A環境では”XMP定格が一番よさげです。

 以上、X79+3930KからZ170+G4560への変更で音質劣化したとは思えませんでした。Windows10を使うのでなるべく新しい方が望ましいですし、NVMeが使えるなどのメリットがありますから、Z170環境で常用しようと思います。

 X79にした理由である「スレッド数が多い方がよい」と相反する話になりましたが、スレッド数が差異パラメータになりえるのは同じ環境、または“同世代どうし”でのことであり、世代の違い(それも5世代)はそれどころではない違いを産むのかも知れません。シリコンのプロセスは新しい方が有利なのかも知れません。
 メモリについても、プラットフォームが変われば全然違うということです。当たり前ですね。

 ちなみに、音質の感想もその理由付けも、もちろん一般論になりえる客観的な話ではありません。個人的におもしろがってるだけですので、その点よろしくお願いします。


■直結

・ストレージはCPU直結した方がよいのか
 「ストレージをシンプルにCPU直結したいのでNVMeを使いたい」が動機ではありましたが、SSDをそのまま移築して動かし始めてしばらくしたら考え変わってしまいました(笑)。
 下流からさかのぼって考えると、トランスポートPCにとって一番優先すべきは「USBコントローラの安定動作」だと思っていますので、CPUのPCIeレーンはそのI/F専用にした方がいいのではないかと。
 NVMeのI/FとしてはオンボのM.2スロット(PCH経由)の方が、変換カード経由より余計な接点少なくてよいような気もしますし。

 仮調達したNVMeをSSD(SATA3)に代えてM.2に実装してみたところ「おぉ、これはいい!」ってカンジでもなかったので積極的には動いていません。やるにしても低発熱タイプじゃないと“ナンカイヤ”なので、SM961あたりが安くなったらまた考えようかと思っています。

・CPU直結に注意
 ところで、拡張カードを「CPU直結したい(PCHを経由したくない)」場合はM/B仕様に注意した方がよさそうです。
 MicroATXなどでは、CPU直結のPCIeスロットは1本しかない場合があるためです。

#以下、解りやすさを優先し、一般的なIntelアーキテクチャのM/B製品を想定して簡略化して記します。

 CPUから出ているPCIeレーン数は16です。
 その16レーンは「1スロットのx16」または「2スロットのx8」に設定できます。
 ですので、CPU直結のPCIeスロットは「最大2」となります。
 一般的用途はGfxカードの複数枚使用ですから、敢えてx1やx4に実装することはまずありません。
 また、「2スロットのx8」に固定してしまうM/Bもまずないでしょう。

 そのため、「x8スロットを使うとx16スロットはx8になる」という仕様のM/Bは、その2スロットがCPU直結です。逆に言うとそれ以外のスロットはCPU直結ではありません。
 そして、そうではない仕様の場合、CPU直結スロットはおそらく1本しかありません。

#3スロット以上直結したい場合は、LGA2011などのハイパフォーマンス系を用いる必要があります。

 同世代のASUS製品で例を挙げます。

 ATX「Z270-A」のスロット仕様は製品webページによると以下の通りです。

  2 x PCIe 3.0/2.0 x16 (x16 or dual x8)
  1 x PCIe 3.0/2.0 x16 (max at x4 mode)
  4 x PCIe 3.0/2.0 x1

 同じくMicroATX「PRIME H270M-PLUS」は以下の通り。

  1 x PCIe 3.0/2.0 x16 (x16 mode)
  1 x PCIe 3.0/2.0 x16 (max at x4 mode)
  2 x PCIe 3.0/2.0 x1

 x16スロットの仕様が微妙に異なっているのが解ると思います。
 Z270-Aと異なり、H270M-PLUSではx8になったりするとは記されていません。ですのでx16固定のCPU直結スロットと推定されます(わざわざPCHレーンをここに使うとは考え難いので)。
 そして、CPUからは16レーンしか出ていませんから、H270Mでは1本目でそれを使い切っていることになります。

 よって、H270M-PLUSにおけるCPU直結スロットは1本目だけであり、2本目の「PCIe x16形状のスロットのx4」はPCHからのものとなります。残る2本のx1はもちろんPCHからのPCIeレーンです。

 複数のカードでCPU直結を狙う場合は要注意、ということで。

 なお、Intelの一次資料で確認していませんが以下記事など見ると、そもそもH270M-PLUSが採用しているH270はCPUレーンを「1スロットのx16」でしか使えないようです。
http://news.mynavi.jp/articles/2017/01/04/kabylake/

 余談ですが、最近のM/Bマニュアルにはブロック図が無くなってしまったようで、こういうことが解りにくくなりましたねぇ。

 ちなみにPCHとはいわゆるチップセットのことです(Z170記事参照)。もはや“セット”ではありませんけれど。


■備忘録

 HD7550のままなのに、X79ではVIERAに出なかったUEFI画面が出るようになりました。そういうモンなんですかね? その後DSP-Z7経由に変更しても出ています。


メインメニューへ

テーマ : オーディオ
ジャンル : 趣味・実用

グランドチューンを考える

16/12/17初稿

 「電線病治療」によって、ケーブル事情からのチューニングの“めやす”というか“よりどころ”というか、はある程度得ることができました。
 それに基づき以下のようなコンセプトを想定して、「UD-503にT1 2ndを投入して発覚した“セッティングのダメさ加減”」の改善を試みました。


■グランドチューン・コンセプト

・シールドやアース線が浮いてるケーブルは使わない(浮いてしまうように使わない)
 なので、アースがないコンセントにはアース線もシールドもないケーブルを用いる。
 自作の場合はそれを意識して組み立て、使用する。

・アース有意な機器のアースをどうするかは熟考必要
 アース有意な機器では、アースは信号GND(デジタル音声信号GND・アナログ音声GND)とショートする(のが一般的だと思う)ので万全の注意が必要。
 例えばATX電源のPCではアースとUSBのGND(ケーブルのシールドも)はショートしているので、それらと完全アイソレートでない限り、USB接続した時点で「USB-DACユニット内の信号GNDはアースとショート」する。
 さらに、ATX電源のインレット内にはノイズフィルタとしてYコン(ACラインとアース間のコンデンサ)が入っている。
 なので、アース有意な機器でも接地せずデジタル音声信号GND・アナログ音声GNDを保護した方がよい場合もある。

・電源系機器でアースピンやアース穴が筐体とショートしている場合は留意する
 例えば、CSE製電源レギュレータRG-50は入力側は2pin直出しケーブルなのでアースピンがないが、出力側にはアース穴があり筐体とショートしている。そのアースを接地するか否か。
 例えば、CSE製アイソレーショントランスTX-200はトランスにアース線が引き込まれている。詳細不明だが、トランス内の1次と2次を絶縁するシールドに接続されていると推定される。そのアースを接地するか否か。「アースセレクタ」などの機能とも関連する。

・システム内にアース有意な機器が2台以上ある場合はアースループに留意する
 上述の通りアース有意な機器では信号GNDとアースはショートしているハズなので、接地した当該機器をインタコで接続するとループが形成される。ただし即NGとは限らない。
 国産メーカ品で組むオーディオシステムにアース有意な機器が含まれるケースは稀だと思われるので問題になるケースは少ないハズ。
 それでもループになる例としては、ATX電源のPCからUSBでDACユニットに繋ぎ、「DACユニット」と「アース有意なTV」がアナログ音声ケーブルで同じアンプに接続されているケースなど。

・グランドとアースを区別して考える(AC-COLDも)
 媒体によって定義が異なることがあるので、どっちの意味で記されているのか注意する必要がある。

・グランドループとアースループを区別して考える
 本Blogでは以下のように使い分けている。

 ・アースループ
   上記の通り。
 ・グランドループ
   AC側(1次側)とDC側(2次側)のアイソレーションが緩いため
   AC-COLDと信号GND(FG)を経由してループすること。

・アース無意な機器でも、アース線やシールドありケーブルを接地して使うと「ノイズ誘導・被誘導低減効果」がある可能性がある
 電線病記事記載の通り。あくまで可能性があるかも? レベル。
 これを期待する場合はケーブルは長めの方がよいかも知れない。

・アース線・シールド有無ケーブルの場合の構造を考慮する
 シールドありなら、太めのドレイン線とシールドがアース線を兼ねるケーブルが望ましい。
 同じくアース線有意なケーブルでもシールド有無によっても差違がある可能性があるので使い分けを考慮する。


 繰り返しになりますが、「アースの質」「電源の質」にも依存するでしょうから絶対的なハナシではないのは言うまでもありません。


■グランドチューン・実践

 とりあえずケースを「フルアルミ・内装塗装なし」な星野金属製に換えました。

・ACケーブル適材適所
 上記コンセプトに基づき既存品の使用箇所を入れ替え。アース線のない2pinタイプを追加投入。
 直接関係ないですけどアースが関係するプラズマテレビも対象にとっかえひっかえ(笑)。

・USBケーブルのGND構造
 WireWorld製USBケーブルSilverStarLight(以下SSLと略)は、シールドとVbusGNDがショートしてるのが特徴的です。
 アコリバ製USB-1.0SPSは、データ用ケーブルにはVbusGNDも通していませんでした。

 実は、今回のチューニングで何をやっても違和感とれずメゲそうになった時、USB-1.0SPSからSSLに換えただけでウソのようにそれが無くなったんです。SSLからUSB-1.0SPSに入れ換えた時はほとんど違い感じなかったのですが。その後ヘッドホンとPC筐体とACケーブル換えてるワケですが、この変化はちょっとビックリです。

 その後以下の展開を経てUSB-1.0SPSに戻していますが、善し悪しではなく“変化”はかなり大きかったことを記録しておきたくて。

・アナログGNDとデジタルGNDを分離
 UD-503はデジタル電源・GND(VbusGND)のアイソレーションを謳っていますので、「USBケーブルのシールド在りよう」がかなり影響する機体なのかも知れません。

 ただ、このアイソレーション疑問があるんですよね。

 UD-503のUSBコネクタ部のシールドはFG(=アナログGND)とショートしています。
 PC側では、ふつうUSBシールド=FG=デジタルGND=VbusGNDです。自作デスクトップはもちろん、ノートPC(もちろんメーカ製)でもこうなっています。手持ちのVersaPro、Thinkpad X220で確認しました(VersaProではUSB3.0と2.0両方、電源ON/OFF状態両方にて)。

 ということは、UD-503の内部でVbusGNDをアナログGNDとアイソレーションしても、USBケーブルを介して結局PCのGNDとショートしてしまうのでは?
 UD-503のアナログGND(=FG)をデジタルGNDから守るためには、BコネクタのシールドをFGに接続せずアイソレートするか未接続にする必要がある気がするのですが…

 ということに気づいてしまったので、ならばとSSLのBプラグのシールドシェルにセロテープを巻いてUD-503のBコネクタシールドと絶縁してみました。これでPCのデジタルGND(VbusGND&シールド)とUD-503のアナログGNDはアイソレートされるハズです。

 激変は感じませんでしたが、これで運用してみようかと思います。

・ATX系PCのアイソレーション
 ATX系PCを使ったPC-Audioのアース・FG・GNDについて改めて整理してみます(ATX電源ではなくACアダプタ電源などのシステムでは別事情となります)。ただしあくまでも一般的事情として、です(例外もあるかも知れません)。

 ・ATX系のPC・・・信号GNDとFGはショート、FGはアースとショート
 ・ATX電源・・・COLD(HOTも)はインレットフィルタのYコン経由でアースと接続
 ・PC・・・GNDはUSBのVbusGNDやシールドを介してDACユニットのGNDとショート

 つまり、ATX系PCでは信号GNDはYコンを介してCOLDと容量接続していることになります。「スイッチング電源はAC側と機器内DC側のアイソレーションが甘くなりがち」どころではなく、意図的に容量もって繋がってるワケです。
 PCとしては問題ないのでしょうけれど、オーディオプレーヤとして組み込むと、USB-DACのGNDもAC-COLDと容量接続していることになりますよね。

 DACユニットはオーディオ機器ですから電源部におけるAC側COLDとDC側GNDのアイソレーションはそれなりに強力だと思います。
 しかし、PC側で“明らかに緩んでる(敢えてYコン入れてる)”状態なワケですから、通常のオーディオシステムよりグランドループ条件は悪いのかも知れません。

 じゃあ、どうすればいいんでしょう?

 PC電源をコンセントACとアイソレーションすればよいハズです。アイソレーショントランスを入れればよいってことですね。「PCのGNDとの絶縁が緩くなったCOLD」と「コンセント側COLD=DACユニットに入るCOLD」がアイソレートできるワケですから、DC側GNDで繋がってもAC側で切断できます。
 元々「PCの電源はスイッチングだから」という理由でトランス入れてたのですが、「ATX電源は信号GNDとアースの絶縁が緩いから」というより重大な効果があったということですかね。

 しかし、考えているうちにちょっと気になることが…

・アイソレーショントランスの功罪
 もしかして今回の一番のトピックはこれかも。

 アイソレーショントランスTX-200の内部トランスにはアース線が接続されています。正確には解りませんが、トランス内シールドがアースに落ちていると推察されます。少なくとも、「トランス内でアースが何らかの役目を担っている」とは言えると思います。
 ATX系PCのアースはGNDとショートしています。
 ATX系PCのアースはCOLDとYコンで容量接続しています。つまりGNDとCOLDが容量接続しています。

 この理解が正しければ、「アイソレートすべき入力側と出力側の間にCOLDに容量接続した信号GND(=アース)がある」ということになります。
 う~ん、なんだかあまりヨロシクナイ気がしてきました。
 といって、TX-200を外すと決して良くはなりません。PCのアースを浮かせても良くはなりませんでした。PCアースはATX電源の中でGNDとショートしYコンでCOLDと繋がってますから、やっぱり放置はできないと思えます。

 この状態の概念を図示してみます(Bコネクタはセロテープシールド状態)。繋いだり外したりのバリエーションは脳内シミュレーションで(笑)。

ATXとアースとGND

 さてどうしましょう?

 現在はPCとUD-503だけ使っておりUD-503から他機器への接続はありません。ですのでPCとUD-503という2機の間だけアイソレートすればよいワケで、よってアイソレーショントランスはどちらに入れてもいいハズです。シールドにアースが接続されている状態は変わりませんが、信号GNDの在処が1次側2次側逆になることで変化するかも知れません。
 ということで、PC側ではなくUD-503側のACをTX-200から取るようにしてみましたら明らかに良くなりました。やっと金脈掘り当てた感あり(笑)。

 しかし、さらにいろいろ試してみたら、UD-503電源をレギュレータから取るだけでも(TX-200を外しても)同じ傾向でした。まあ、レギュレータですからね。
 UD-503側に何も入れないとやっぱりダメなのですが、PC電源を接続先を「UD-503接続先コンセントとは別の、離れた壁にあるコンセント」に変えてみたらそれでも同じ傾向の効果がありました。

 つまり、ATX電源入力にアース有意なトランスを置かず、かつ、何らかの方法で「PCが宅内電源へ与える悪影響」を減少させればよい(というか必須)、というような結果になりました。
 室内配線の長いACケーブルで隔てられているだけでも効果あり、ということですかね。定かではありませんが。

 ということでこんなカンジになりました(CSE製ノイズフィルタNFW-30は無視してもいいと思います)。

ATXとアースとGND2

 どうも、「ATX系PCの信号GNDはアースとショートしておりアース経由でAC-COLDと緩い関係にもなる」ので、内部シールドがアースになっているトランス経由したりするとハナシがヤヤコシクなるようです。

 なお、上記は、「USB-VbusGNDをアイソレーションしているUD-503」に「USBシールドを“セロテープアイソレーション”して接続」している環境条件と相まっての結果かも知れません。


■顛末

 これらに基づいてAC環境再構築した結果、やっとマトモにT1 2ndが聴けるようになりました。同時にMDR-Z7やHD700もそれぞれの特徴が出た好ましい音になりましたので、おそらく正しい方向の調整だったのだと思います。
 DACユニットたるUD-503ではなくプレーヤPCの電源環境(筐体,ACケーブル,アイソレーショントランス,ノイズフィルタ)が主たる調整対象になりましたが、変わるもんです。

 リサンプラ設定に続き、UD-503のDSDフィルタの違いも感じられるようになりました。50kHz(AK4490のデフォルト)にした方がエネルギッシュですね。特に中低域。高域は抑制されるため(ホントかな?)でしょうか、キツさは取れますが空間は若干狭くなるような。
 ちなみにT1 2ndのスペックは5~50kHzとなっています。

 いや~しかし、これだけ条件付けて組み合わせ制限しても「とっかえひっかえ試聴」は途中でメゲそうになりました(苦笑)。なんとか落ち着いてよかったっス。


 余談ですが。
 なんだか5~6時間チューニングして鳴らしてると、最後にヘンな音質になることがある気がするんですよね。
 悪化したと言うより“聴くに堪えない”というカンジ。で、切り上げて翌日聴くと何も変えてないのにいい音に聴こえる。
 数時間鳴らしたまま放置後聴いてみると印象が全く違うこともあります。
 耳とか頭のせいですかねぇ? それとも変更したケーブリング環境に“馴染ませる”時間が必要なんでしょうか?
 前者なら、あまり長時間連続でやらないようにする必要ありますね。後者だとすると時間かかって仕方ないですねぇ。


 以上、とあるグランド・アース系チューニングの顛末でした。決して一般論ではありません。個人的感想です(笑)。


メインメニューへ

テーマ : オーディオ
ジャンル : 趣味・実用

デジタルオーディオことはじめ。

15/11/03初稿

 ちょっと大胆すぎるタイトルかも知れませんけれど(笑)。

 「サンプリング定理」を調べたことで、自分としては「デジタルオーディオのありよう」や「ハイレゾの意味」を概ね納得しました。
 間違いあるかも知れませんが、何かの参考になるかも知れませんのでそれらをポータル的にまとめてみようと思います。

 ただ、いろんな事情がある場合でも、煩雑さを避けるため詳細は個別記事(リンク先)に任せるとして言い切っている場合もありますことご了承ください。


 PCとは本来DOS/Vパソコン(PC-AT)のことを指します。ので、Macの場合はMac、ラズパイなどの場合はマイコンと記します。
 USB-DACを用いた構成でPCM再生を基本に。

 「LPF」はLow Pass Filterの略です。
 「OSDF」はOver Sampling Digital Filterの略です。


■はじめに

 最終的には「聴いて良ければよい」のは言うまでもありませんが、デジタルオーディオのデジタル部分(DACがアナログ化する直前まで)のデータの変遷は主観的な嗜好ではなく客観的な理屈ですので、それを理解しておいてソンはないと思っています。

 例えば、
「14.7kHzのサイン波を44.1kHzでサンプリングすると1周期に3個しかデータがない。もしプラス側頂点をサンプリングしたら、マイナス側頂点には絶対にサンプルはない。が、14.7kHzはナイキスト周波数より低いのでサンプリング定理は成立し、“完全に再現できる”ハズ。それは何故か」
を理解しておく、ということです。


■PCMとDSDの原理を知る

・まずは「サンプリング定理」を理解する
 「如何に鳴らすか」を考えるためには、「如何に鳴っているか」を知る必要があるでしょう。
 それには、まずはPCMオーディオの基本「サンプリング定理(標本化定理)」を理解する必要があります。結構深いです、これ。

 例えば、実は「すべての波形はサイン波の合成とみなせる」というフーリエさんの発見を前提として知っておく必要があるのです。

 そして、「“現実には”サンプリング定理に完璧に則った記録再生はできない」ことがミソでした(*)。

*:「サンプリング定理」「フーリエ変換」の解説はたくさんありますが、普通は数学や情報工学としてのもので、「デジタルオーディオ」におけるそれらについて平易に記しているものはほとんど無いのでは。そのあたりを念頭に置いて情報にあたらないとワケワカンナクなると思います。

 その現実の中で「(安価に)理想に近づくためにDACチップがやっていること」こそ、デジタルオーディオ理解のキモだったんです。

 代表的なのは「理想記録再生のために必要な“理想LPF”に如何に近づくか」です。
 サンプリング定理に純粋に準じるなら、例えば22.05kHzまで記録再生するためには「22.05kHzまで通して22.05kHz以上をカットする理想アナログLPFが(記録時も再生時も)必要」ですが、現実的には不可能です。仕方ないのでちょっと妥協して20kHzまで通して22.05kHz以上をカットするLPFを構築することはできても、音質を保つためにはコストがかかります。

・アナログ信号じゃなくてデジタルデータをフィルタリング演算して解決
 そこで生み出されたのがデジタルフィルタです。デジタル演算によるOSDFすることで急峻なアナログLPFと同じ効果を安価に得ているのです。

 LPFとは、つまりある周波数以上の周波数成分をカットすることです。
 周波数成分的に言うと、阻止帯域(StopBand)周波数以上のサイン波成分をカットするということです。「サイン波=純音=倍音がない=ナイキスト内で取りうる最大周波数の波形はサイン波」ですので。
 何もしないとDA出力は次のサンプルまで値をキープ=零次ホールドされたのち次のサンプル値に急峻に変化しますが、それってDC成分と垂直波形ですので無限周波数(イメージングノイズ)を含んでいます。LPFはそのカクカクを無くすものです。
 デジタルドメインにて波形的に言い換えると、「阻止帯域周波数以上のサイン波成分が発生しないようにサンプル間をならしていく」処理と見ることができます。

 あるサンプルとサンプルの間の値は自由に決められないのです。「ナイキスト周波数以上の周波数成分がないこと」という条件を満たす値でなければなりません。極端な値で繋ぐとナイキストを超える周波数成分になってしまうことは、ナントナクイメージできると思います。2サンプルの単純平均でないことも、例えばサイン波のてっぺんなどを考えればイメージできるのでは。

 自然界の音はカクカクしたりとんがったり直線になったりできず、必ず滑らかに変化する“波”になるのです(データとして三角波や矩形波は作れますが、それをそのように振動させることはできません)。
 ここでのデジタルフィルタとは、周辺のサンプル値から“波としてあるべき”中間サンプル値を算出することと言えます。そして、サンプル間をならす=サンプル数が増えることですから、オーバーサンプリングになるワケですね。

 LPF=ローパスフィルタと聞くと、なんだか高域をカットして少なくしているような印象(ノイズリダクション的な?)がありますが、「フィルタ」という単語のイメージに惑わされず「リコンストラクション演算」と捉えた方がスッキリすると思います。

・DACの理想は「アナログ原音」を復元することではない
 結構見落とされてる気がするのですが、デジタルオーディオシステムは録音時に“アナログとして空間に存在していた音”を記録再生することを目標にしてはいません。サンプリング定理を利用していますので、“ナイキスト周波数以下だけの音”が対象です。ですから、デジタル化した時点でナイキスト以上の周波数は存在しないデータになっています(しなければなりません)。

 再生時のDACシステムは、楽器や肉声が発音した「アナログ原音」ではなく、「ナイキスト以上をカットされたデータが示す音」にアナログ化しているということです。
 たとえアナログ原音がAD変換時のLPF性能によって変質(エイリアス歪みなど)してデータ化されていたとしても、変質した状態がDACシステムにとって再現すべき“原音”になります。

・波形編集ソフトの表示はDACで再生される波形ではない
 これも、理解の妨げになる予断のひとつとではないかと。
 編集ソフトの表示はサンプルのデータ値を並べたものです。当然サンプル間には何も情報はなくデータとしては離散してるワケですが、そのまま“てん”だけ表示しても解りにくいですよね。なので、“便宜的に”サンプル間を線で繋いで表示しているのであり、決して実際の再生波形を示すものではありません。解りやすくするための“補助線”と考えた方がいいでしょう。
 補助線は結果的には「リニア補間」再生した波形に近いハズですが、まれにTWEのように「零次ホールド」で表示するソフトもあります。

・デジタルフィルタはメーカが売り文句のために付けてる機能ではない
 繰り返しになりますが、再生時にLPFするのはサンプリング定理に基づく波形再構築処理(=リコンストラクション)ですので、決して余計な処理ではありません。デジタルでなかった時代はアナログだったのです。当然一長一短ありますので、演算でエコー成分が付くからといって「デジタルフィルタ=悪」という絶対論はないと思っています。

 必須機能ですから一般的なDACチップは必ず搭載しています。DACユニットが「選択可能なデジタルフィルタ搭載」と謳っている場合、DACチップが複数搭載しているフィルタの選択を解放しているだけのことも多いようです。もちろん独自フィルタを搭載している場合もありますので、「デジタルフィルタ搭載」「選択可能」といった売り文句についてはよくその価値を吟味した方がいいでしょう。

 OSDFをパスする「NOS-DAC(搭載しているフィルタをOFFして使う場合も含む)」というものがありますが、原理上必要なプロセスを実施しないのですから、高域にイメージングノイズが残ることは承知してシステムアップすべきと思います。
 例えば、「前段にアップコンバータ入れるので要らない」とか「後段にものすごく上質なアナログLPF入れるから要らない(*)」とか「192kHz以上のハイレゾしか聴かないから要らない」とか、はたまた「どうせウチのスピーカは20kHzまでしか再生できないからいいんです」とか「イメージングノイズ入りの音が好きなんだよ!」とか。

*:CD専用プレーヤなら44.1kHzに特化できますが、ユニバーサルなサンプルレートに対応するDACシステムでは特性可変の高音質アナログLFPって難しそうな気がします。素人ですけど。

・デジタルフィルタのパラメータ特徴はメーカ宣伝文句をイメージで鵜呑みにしない
 「Phase Response」が周波数に非線形だと波形変形が生じます。線形だと変形しませんがプリエコーが発生します。
 が、そのメリット・デメリットを“実際の音として”正確に提示しているメーカはほぼないと思います(難しいでしょうね)。
 ので、「プリエコーはやっぱり不自然だろうな」などとイメージで思い込まない方がいいでしょう。
 “エコー”と呼ばれてはいますがカラオケなんかとは全く違うモノですので。

・アップサンプリングとオーバーサンプリングとOSDFとアップコンバートを混用しない
 このデジタルフィルタ処理は、DACチップ内で行われる場合は「OSDF」、PC内で行われる場合は「アップサンプリング」と呼ばれるようです。が、やっていることと目的は同じです。例えば48kHzサンプルを2倍にした96kHzデータでは、元のナイキストである24kHz以上はLPFでカットされた領域になります。「新たに高音を増やす処理」ではありません。ていうか、逆に、「ない高域を生成する処理」と言った方がいいでしょう(イメージングノイズをイメージできないように確定させる)。

 一方、「アップコンバート」は高域成分を補間生成して付加するものです。
 同じくサンプルレートをN倍にするにしても、目的からして全く違うということですね。

 ただし、本Blogでは上記の意味で使っていますが、世の中に明確な規格・定義は無いようですから、本件に関する情報に接する際には、まず、どの単語はどの意味で使われているか確認した方がよいでしょう。

・イマドキのDACチップはPCMデータでも1bitストリームにしてからDA変換している
 イマドキのDACチップは、“高音質にするためには高コストになるアナログ回路の規模をデジタル技術によって縮小”しています。
 リコンストラクションフィルタのアナログ要素をOSDFを導入して減らしているのはその一例ですが、それだけではありません。DAコンバートの本丸回路でも行われています。

 例えば24bitマルチビットDACでは、1bit精度の電圧はフルスケールを1Vとするなら1/16777216Vになります。そんなアナログ回路を作るのは(現実的価格で量産するのは)至難の業です。
 そこで、どんどん進化する半導体技術を利用し、PCM信号をΔΣ処理で1bitストリーム信号化してDA処理を1bit化しているのです(*)。128や256fsレベルの周波数に変換しているようです。

*:ただし、リンク先に記している通り、実際のDACチップがやっているのは単純な1bit化ではありません。1bitではなさそうですが、各社各様、かなり複雑な処理しているようであり、一概に「マルチビットΔΣ」とも言えないのではと思います。
 ですので正確を期すなら当該話題の際には常にその旨付記するしかありませんが、本稿では主旨に影響ないと考え解りやすさを優先し、代表概念として「1bit」または「ΔΣ」と表記しています。


 つまり、イマドキのDACチップの仕事の大半は「サンプリング定理の安価で高精度な近似」と「アナログ化回路の低コスト化」のためのデジタル処理なのです。
 “DACチップ”ではありますが、“DAコンバート”処理はΔΣストリームにアナログLPFかけることくらいなんですね。もはや“DAコンバーター”と言うより“デジタルプロセッサ”に近いかも知れません。

 さて、そのアーキテクトは規格があるワケではありませんので、DACチップごとに違います。

・フォーマットが違えばハードウェアの動きが変わるので当然音質は変わる
 例えばTI製DAC PCM1795はどんな周波数のデータにも8倍OSDFを常にかけています。
 つまり、2448データはDACチップ内で8倍の384kHzデータになります。2496データはやはり8倍で768kHzになります。OSDFフィルタの忙しさは後者が2倍ですし、ΔΣブロックが処理するサンプル数も異なるということです。

・DACチップが違えばアナログ回路はもとよりデジタル処理方式が違うので当然音質は変わる
 例えばAKM製DAC AK4490はPCM1795と異なり、おそらく入力信号の周波数によってOSDFの倍率は可変です。言い換えると常に8fsの352.8kHzまたは384kHzにしてΔΣブロックに送り込んでいると推定しています。例えば2448データは8倍ですが、2496では4倍されているのです。プレーヤ側で8倍アップサンプリングして送り込めばOSDFは働きません。
 TI製とは逆に、OSDF倍率が可変でΔΣブロックの処理は一定、ということです。

 同じ音源データでもDACチップが異なれば、その内部デジタル処理動作は違うということです(アナログ部の違いだけではない)。
 送り出し側でアップサンプリングした場合は、同じDACチップでも内部動作は変わるということです。
 もちろん、PCでやるアップサンプリングとDACチップ内のOSDFは同じ倍率でも異なる演算結果を出すでしょう。規格があるワケではありませんし、PassBandやStopBandなどの設定値も同じとは限りませんし。

・「ネイティブ再生」「原音再生」とは何か
 「DSDネイティブ再生」とは、「アナログ化回路にDSDデータ(1bitストリーム)をそのまま突っ込むこと」を指します(指すべきです)。そのまま突っ込めない(変換を要する)DACチップはネイティブではないと考えています。
 ネイティブでないとダメというワケではありませんが、DACチップをLPFとしてのみ使おうというような場合はネイティブである必要があります。

 一方、PCMはサンプリング定理上リコンストラクションフィルタをかけて初めて再現(再生)できるのですから、フィルタしてこそ「PCMネイティブ再生」でしょう。フィルタがデジタルでもアナログでも。
 その意味では、PCMって「理論上可逆だけど事実上非可逆の圧縮方式」と見ることもできるかもしれません。

 CHORD社などは凄いフィルタ処理で微細信号を復元するってがんばってますけれど、ソース製作時のAD変換性能やパッケージする際のダウンサンプリング性能を超える微細音はそもそも入ってないハズですよね。それら性能を超えた領域でもDA変換性能を上げれば音質は変化するでしょうけれど、それは録音時の音の再現性が向上したからではないでしょう。

 ですので、いわゆる「原音再生」って何を意味するのか微妙ですよね。再生側としてはミックスダウンされたひとつのストリームデータを「原音」とみなす他ありません。しかし、そのデータを“どう再生するのが「原音に忠実」なのか”は規定できません。「制作者がOKを出した再生音と同じ音」くらいは言えるかも知れませんが、アナログシステムはもとより上述した通りDACシステムによってOSDFなどのデジタル処理は異なるワケですから、その再現は無理でしょう。

・「ビット落ち」はフツウにしてれば発生しない
 デジタル演算でボリューム調整(フツウは下げるだけ)する場合、16→32bitなどに拡張して演算されるのがフツウでしょうからビットは落ちません。システムの処理性能(例では32bit)以上のリアルビット深度情報を持った音源はダメですが。

 逆に、イコライジングや以下に記すTruePeakなどでレベルが上がってフルビットを超えてしまう場合は、ビットは“溢れて”います。「クリッピング」などと呼んだ方がいいでしょう。

 いずれにしても、「有効ビットが1桁以上無効になる=情報量が減る」という意味での「ビット落ち」は、特殊な処理しない限り発生していないと思います。


■ハイレゾの意味

 「サンプリング定理」に基づいて、よくなるリクツ(があるのか)を考えてみました。
 もちろん、実際に聴いて意味があるか(効果があるか)否かは別問題です。純粋に「レゾリューションがハイなフォーマットにするとどんな効果が考えられるのか」です。

・サンプリングレートの違いは「高域があるか」ではなく「元波形からの変形度の差」で捉える
 フーリエさん的に言うと“波形(音色)”は「基音」と「倍音」の合成で形成されています(サイン波だけは「基音」しかない「純音」です)。
 そして、音楽における楽器・肉声の波形としての最高周波数は4kHzくらいらしいです。
 つまり、普通の音楽において、4kHz以上の周波数成分は「倍音」ということです。
 フーリエさん的に言うと、波形に制限をつけない限り倍音は無限に必要です。数学的リクツですので。
 が、実際のPCMオーディオではナイキスト周波数までしか記録できません。

 ですので、ハイサンプリングのメリットとは、「より高い周波数の倍音が記録できるため波形の再現性が上がること」と言えます。サンプルレートが下がるほど「元波形からの変形が大きくなる」と言ってもいいでしょう。

 ハイサンプリングの意味を、例えば「単独の30kHzサイン波が聞こえるか否か」で考えるとハマります(笑)。

・DA処理の「可聴域との距離」も考慮する
 “AD変換の時点で”ハイサンプリングすれば、イメージングノイズ発生帯域を高くできますのでDA変換時にメリットがあります(OSDFの初段がすでに充分に可聴域外)。
 例えば384kHz(8fs)サンプリングならナイキスト周波数はDACユニットのポストフィルタの通過帯域を超えるでしょうから、プリフィルタは不要になります。実際、上述の通りAK4490ではそのように動作します(OSDFをスルー)。

 つまりデジタルフィルタのデメリットなしに再生できるということです。この領域に至ると「NOS-DAC動作は有意になる」とも言えます。
 なお、この点においては高域に有効成分があるかないかは関係ありません。マスターテープのヒスノイズでもOK。
 逆に、「デジタルフィルタのデメリット軽減」を言っているのですから、当然アップサンプリングではダメです。

・ハイサンプリングを有効活用するためにLFP特性を工夫する手はあるかも
 サンプリング定理本来のリクツで言えば、ナイキストが有効帯域より充分高ければAD・DAとも処理に余裕ができることで理想的なPCM録音再生に近づけます。が、そういう特性でよいことにしておく=規格化しておかないとDA側はそのように動けません。
 残念ながら「ファイル音源」にそういう規格はなさそうです。
 なので、逆に「ファイルの周波数特性に応じて再生側(DA側)で工夫する余地がある」と言えるかも知れません。メンドクサイですけど(笑)。

・ビット深度の違いも「ダイナミックレンジ」や「S/N比」ではなく「波形変形の差」で捉える
 16bitで表現するサイン波を見てみると、例えば1200Hzでは-60dB以下は波形再現性に難ありのようです。
 24bitなら問題なさそうです。これがハイビットのメリットでしょう。

・ビット深度が深ければリコンストラクション精度が上がる
 製作時に24bitあってもパッケージング時に16bitに落とされては、その後どんなにがんばっても24bit精度での波形復元はできません。逆に、ずっと24bit(以上)の精度を保てるなら、サンプリング定理に基づくリコンストラクションは途中16bitに落とした場合とは明らかに異なる精度で実現できます。
 これもハイビットのメリットだと思います。

・TruePeakが発生しにくくなる
 PCMはサンプリング定理に基づいてOSDF(アップサンプリング)で元の波形を再現=再構築=リコンストラクションしていることをよく理解しない、または無視して作った音源は、「TruePeak」問題をはらんでいます。
 この問題はハイサンプリングになるほど発生しにくくなるハズです。
 そもそもピーク潰れを考慮しない作り方されたら関係ありませんけれど。

・比較試聴するなら、マスタリングが違えば音は違うのでフォーマットの違いのみを聴く必要がある
 ハイレゾにリクツはありそうですが、それが実際の音楽波形のAD/DA環境(性能)上、はたまた実際に聴いて効果があるのかは別問題ですよね。
 聴き比べて体験したいところですが、売っているハイレゾ音源とCD音源ではマスタリングからして異なるでしょうから、同じ曲でもフォーマットの違いだけを聴き比べることはできません。CD音源でもリマスター版は全く音が違うことあるのと同じです。その点を無視した比較レビューはあまり意味がないと思っています。

 フォーマットの違いだけを聴き比べるには、ざっくり言うとハイレゾ音源をダウンサンプリングするのがよいでしょう。細かく言うといろいろ注意しなけれなならないことはありますけれど。
 なお、デジタルデータとしてハイレゾであることを確認してから試聴した方がいいと思います。

・比較試聴するなら、差分を再生できる能力を有するシステムじゃないと
 フォーマットの違いだけを聴き比べる条件を整えたとしましょう。けれど、再生システムがハイレゾを再生できないと比較になりませんよね。 
 ビット深度の確認は難しいですが、自分のシステムがハイレゾ領域の周波数を再生できているかはなんとか確認できると思いますので、確実を期す場合は確かめておいた方がキモチイイでしょう。

・「ハイレゾ対応」とは何か
 いろいろなオーディオ機器で「ハイレゾ対応」が謳われています。電源ケーブルにもあるそうです。
 “対応”には、「ハイレゾフォーマットの音楽ファイルが再生できる(扱える)」という意味と、「ハイレゾ再生に足るアナログ性能を有している」というふたつの意味があると思います。
 例えば、192kHzまでしか受け付けないDACチップでも、その前段でリサンプリングすれば384kHzでも768kHzでも再生は可能です。プレーヤソフトがダウンサンプリングして対応させることもあるでしょう。
 その機器が言う“対応”の意味は何か、正しく認識する必要があるでしょう。

・DSDだから良いとは言えない
 DSD64程度ではシェイピングされたノイズが20kHzくらいからもりもり出ていますし、ノコギリ波はノイズまみれになってます。
 確かにOSDF処理しない=インパルス応答しないため波形再現性は良好ですが、そういった事実を踏まえて評価すべきでしょう。
 また、PCMに変換する場合は「MaxPeak問題」にも気をつける必要があります。ヘタするとがっつりピーク潰してしまうかも知れませんので。

・おまけ:VSアナログオーディオ
 上述の通りデジタルオーディオは「近似」のセカイです。対してアナログは「加工」のセカイでしょう。レコードのRIAAイコライジングしかりテープのBIASやNRしかり。「近似」も「加工」も音への悪影響はありますよね。
 特にハイレゾになると、周波数帯域やダイナミックレンジのスペックはデジタルの圧勝でしょう。あとは「デジタル演算による近似」と「アナログ回路による加工」の悪影響どちらが“よりキライか”、ということではないかと。
 アナログの揺れとかムラとかノイズが好きというのは別として。


■ジッタを知る

 以下、「発振器」と「振動子」はごっちゃで記します(主旨に影響ないと思いますので)。ご了承ください。

・そもそもppmはジッタじゃない
 ppmで語られることがありますが、ppmを単位とするのはふつう「発振精度」です。“10年間で何秒の誤差”というヤツですね。クロック周期がぷるぷるするのがジッタですから、基本的に別のパラメータなことは自明でしょう。
 ジッタは「位相雑音」で語るべきものです。
 ホントにどれだけ影響あるのかは別として。

・ジッタを気にすべきはMCLKのみ
 最終的にアナログ信号に影響する時間軸の揺れはMCLKのみと考えるべきでしょう(リンク先で概念図を作っています)。だって、DACチップというかDACユニットの(音声再生に関わる回路の)基本クロックはMCLKしかありませんから。だからこその“Master Clock”。「デジタルプロセッサ」としてのDACチップの駆動クロックですし、入力されるデジタル音声信号も、そのパタパタはMCLKのタイミングです。
 DACユニット内にはそれ以外のクロック(制御用マイコン用など)もあり得ますが原則アナログ化には関係ありません。「そのジッタがDACチップの電源を揺らす」といった間接的な影響はあるかも知れませんが、もはやジッタというよりノイズと捉えた方がいいでしょう。
 また、「PC側の転送タイミング(例えばUSB Class1の1ms周期)の揺れ」はクロックレベルではありませんから、ジッタとは呼ばず別問題として考えた方がいいと思います。

・送信側(プレーヤ)と受信側(DAC)でMCLKクロックを同期しないと再生できない
 無理に再生するとサンプルダブリや欠損になります。
 極端な例ですが、お互いが±10%精度の10MHz発振器を使っているとして、PCの個体がたまたま9MHz、DACがたまたま11MHzだったとしましょう。同期しないでサンプル転送したら足りなくなるのは明らかですよね。
 ですので、Tx側とRx側で必ずクロックを共有する必要があります。
 ですが、S/PDIFなど大半の機器間I/FではTx側のMCLKをRx側に転送することはできません。
 ですので、Rx側では、PLLを用いてTx側のMCLKに同期したMCLKを生成しています。

・PLL<原発振
 しかし、PLLのジッタ性能は水晶の固有発振たる発振器の原発振より原則として低いです。生成周波数を可変できるくらいですから仕方ありませんよね。
 I2SのマスターモードだとTx側からクロック(といっても普通MCLKは来ませんが)を転送できますが、たとえばTx側が汎用マイコンなら、それには44.1kHzや48kHzの256倍や512倍といった発振器は搭載されていませんから、当然PLL生成されたものになります。
 「Tx側からデータに同期したクロックが送られてくるからと言って絶対的にありがたいモノとは限らない」と思っています。
 I2SにはRx側からクロックを送ってTxを動作させるスレーブモードもありますが、これに対応したシステムはあるのかな?

 ところで、TxマスターならRxはスレーブですし、TxがスレーブならRxはマスターです。マスター・スレーブはTxとRxに必ず共存するワケですが、本Blogでは、モード表記は基本的にデータ流れの上流側(Tx側)観点で行っています。

 「PC側の転送周期の揺れはジッタではない(別問題)」と記しましたが、「転送されるクロックの揺れはジッタ」でしょう。Rx側がPLLでMCLKを生成する場合は、Tx側から送られてくる転送クロックのジッタはそのままPLL結果に影響することになりますから。

・クロックは非同期が望ましいけれど、データレートは同期する必要があるという矛盾
 MCLKは基本サンプリング周波数「fs(44.1kHzまたは48kHz)」の256倍や512倍の周波数が用いられます。DACユニット内ではDACチップの動作クロックになります。上記の通り、S/PDIFなどではRx側でTx側に同期生成します。
 S/PDIFではTx側のMCLKで司られるビットレートでリアルタイムにサンプル転送してきます。1644なら隙間なく1秒間に88,200サンプル送ってきます。ですので、MCLK同期したシステムではサンプルダブリや欠損は発生しません。

 しかし、DACチップの動作クロックは上記の通りPLLではなく原発振の方が望ましいワケです。
 しかし、クロック同期せずRx側独自のMCLKを用いるとサンプルダブリや欠損が発生します。

 それを発生させないためには、ある程度のバッファを設けリアルタイムより速いビットレートでI/Fし、Rx側からTx側に「待て」「もっと」の制御が出来ればよいワケです。

 USBアシンクロナス転送はそれを可能にしています。1644の場合、Class1なら1ms単位でステレオ44サンプルまたは45サンプルをやりとりし、Rx側はそれをバッファし、独自のMCLKに基づいてそれを再生処理します。MCLKの精度差によってサンプルが余ったり足りなくなったりしますが、その際は「余っちゃうから1回分パス」「足りなくなりそうだから2回分一気に送って」といったやりとりをします。
 これにより、Tx側とRx側が独自のMCLKを持っていてもマクロなデータレートを一致させることができるため、サンプル欠損を防げるというワケです。
 S/PDIFでは不可能なのは一目瞭然でしょう。一方通行ですからTx側はRx側の事情なんて聞く耳持ちません(持てません)し、結果的なビットレートは「サンプルレート×ビット深度×2ch」で固定ですから、レート的にも「待て」は出来ても「おかわり」は出来ません。

・DACのMCLKに原発振を使えるのは事実上USBアシンクロナスモードのみ 
 PCを絡めたコンスーマオーディオとして機器に潤沢な選択肢があるという条件では、現時点ではこれしかないハズです。
 I2Sは上記の通りですし、そもそも機器間I/Fではありませんし。
 外部クロックを入れられるPC用サウンドカードもあるようですが、基本、業務用ですよね。
 PCレスならDACユニットのクロックをトランスポートに入れる手があります。両方に外部クロックを入れることもできますが、それはMCLKじゃないと結局PLL生成することになります。

 なので、DACのMCLKの健やかさに重点を置くのなら、表題の理由から機器間I/Fは「USBアイソクロナス・アシンクロナスモード」一択と思っています。
 もちろん、業務用機器も視野に入れたり、MCLK以上に重視すべき点があるならこの限りではありません。例えばハイレゾマルチをやるためにHDMIを使う時など。

 ちなみに「isochronous」は同時・等間隔といった意味。「asynchronous」は非同期(synchronousの否定形)です。


■PCオーディオの遊び方(の一例)

 上述したデジタル音声処理事情・DAC事情を踏まえて“PCオーディオの遊び方”を考えてみます。

・デジタルデータのアナログ化に必要なデジタル処理を、PCオーディオはどこでやるか変えられる
 PCMデータはOSDFされΔΣ変調され、そのストリームがLPFでアナログ化されます。
 DSDデータはネイティブ再生システムならそのままLPFでアナログ化されます。

#厳密に言うと、ΔΣブロックではΔΣストリームの周波数までPCMをさらに“オーバーサンプリング”しています。256倍ならOSDFで8倍されたデータをさらに32倍してからΔΣ化しているようです。OSDFよりシンプルな方法(ゼロサンプル挿入?)でやってると推察しています。

 この処理プロセスはどんなシステムであろうと原則変わりません。
 そして、PC+ネイティブDSD再生可能なDACユニットなら、これらの処理…OSDF(PCでやるならアップサンプリング)をどこで何倍までやるか、ΔΣ変調をPCでやるかDACでやるかは設定・構築次第です。

 例えば≪foobar2000≫とUD-503(AK4490)で1644データを鳴らす場合、極端な例として

・≪foobar2000≫側では何もしない場合
 ⇒ AK4490内部で8倍OSDF→ΔΣブロックで32倍オーバーサンプリング(合計256倍)
   →ΔΣストリーム(11.2MHz)化→LPFでアナログ化

・≪foobar2000≫側で全部やっちゃう場合
 32倍アップサンプリング→ΔΣブロックで8倍オーバーサンプリング(合計256倍)
   →ΔΣ変調でDSD256化
 ⇒ AK4490内部のLPFでアナログ化

という鳴らし方ができます。この間をとった設定はお好み次第ということですね。ソフトウェアによってはフィルタ特性やDSD変換演算の設定もできます。
 ΔΣ以降をDACチップ側にやらせる構成なら、アップサンプリングとOSDFを双方で行うこともできます。AK4490相手なら、PC側で2倍したらDACチップ側では4倍になるワケです。PC側で8倍して送り込めばOSDFはバイパスされますからDACチップを「ΔΣ変調&アナログLPF回路」として使うこともできます。
 PCで2倍、UD-503内蔵のFPGAで2倍、AK4490で2倍=合計8倍なんて設定も。

 PCオーディオ(設定可能なソフトとDSDネイティブ再生可能なDACユニット)なら、音源データのデジタル処理システムをかなり自由に構築できるということですね。

・PCで処理するかDACでするか
 どっちでやってもいいとしていも、高性能な方でやらせたいですよね。
 ですが、上述した通り実際のDACチップの仕組みは複雑ですので、言うまでもなく単純比較はできません。例えばPC処理して送り込む場合は当然シングル1bitストリームですが、DACチップ内部処理はそうではありません。
 なので正確には解りかねますが、個人的にはPC処理はDACに勝るとも劣らない(少なくとも使い物になる)と判断しています。
 DACチップのΔΣ変調演算は64bit浮動小数点精度ではやってないハズ、と(笑)。


■余談

・情報との向き合い方
 ネットや雑誌などでいろいろな情報が発信されていますが、「WindowsはダメでMacの方がいい」「x86はダメでマイコンボードの方がいい」といった音質比較を参考にする場合は、その条件をよく確認した方がよいでしょう。
 例えば、WASAPI排他モードやASIOではない環境で比較されたらWindowsに不利です。USB-I/Fがアダプティブのマイコンとアシンクロナスのx86だったら前者が不利です。

 また、「~ノイズフィルタ」「~インシュレータ」といったチューニングについても、電気信号系やメカ振動系に変化を与えるワケですからその影響はシステムによって千差万別でしょう。「音質が良くなったか否か」ではなく「パラメータとして有意か(変化があるか)」の観点で見た方がよいと思います。

・“Noise”は「雑音」?「歪み」?
 エイリアシングノイズやイメージングノイズは、「折り返し雑音」と訳されることも多いですが、個人的には、どっちかというと「歪み」という訳の方がいいと思えます。「雑音」というとどうしてもS/N比的なものを想像しちゃうので。古い?(笑)
 エイリアシングは明らかに波形を変形させますので「雑音」はどうかなと。イメージングの方は確かにナイキスト以上に発生する周波数成分ではありますが…
 いずれにしろ、これらはデジタルデータ(離散的)であるが故に存在するものなので、たとえ「雑音」と訳されていてもアナログ音声的なノイズの概念で捉えないことがポイントかと思います。

 「位相雑音」なんかは雑“音”じゃないですよね。

 電気的なものとメカ的なもの、どちらのことを言ってるのかヨクワカラナイ情報もありますので、その点も注意ですね。

・なんでビット数が“深度”なの?
 これも微妙に腑に落ちない感あります。「bit depth」の訳だからでしょうね。欧米の人にとっては「細かさ」というより「深さ」のイメージなんでしょうか。



 さて、ここからは上記をふまえた現時点での個人的な考え方です。
 個別事情や考え方はいろいろありましょうからもちろん客観論にはなり得ませんが、とりあえず参考まで。


■PC-Audioシステムチューニングコンセプト

・システムチューニングは「帰納法」で考える
 人はアナログな音波として音を聴いて(感じて?)います。
 アナログ信号を生成するのはDACチップです。
 データはDACチップまで改変なく届いています。
 なので、音を良くするためにはDACチップを健やかに動かすことをポイントに考えるとよいのではと思っています(アナログだけでなくデジタルの部分もその観点で考える)。DACチップ以降のアナログ段も当然関連します。

 その“おおもと”から遡ってシステムの在りようを考えると効率いいのではないかと。

・MCLKを極力キレイにする
 位相雑音性能が良い水晶発振器を搭載したDACユニットを選びたいですね。44.1kHz系と48kHzで原発振を使うためには、それぞれ用の水晶を搭載している必要もあります(でないと片方はPLL生成)。
 ですが選ぶだけでなく、その原発振がそのまま使えるように動かす必要もあります。

 ⇒そのためには、上述の通り、現時点現実的には「USBアイソクロナス・アシンクロナスモード」を使うしかないと思っています。

・アナログ化までの忙しいデジタル処理はDACにやらせない 
 PCM再生に必須の処理「OSDF」「ΔΣ変調のための単純オーバーサンプリング」「ΔΣ変調」は、PC側でやるのとDACチップ側でやるのでは、どちらがDACチップのアナログ化回路に有利でしょう?

 ⇒DACチップ内のデジタル処理はより少ない方が、DACチップとしての電源変動やノイズ発生が少なく済むのではないかと思っています。とするなら、送り出し側で出来るデジタル処理は極力やってしまった方がアナログ化回路を健やかに動かすためにはよいのでは?
 当然、PC側処理がDACチップのそれに決定的に劣っていない(差し引き当該メリットの方があり得る)ことが条件です。確証はありませんが個人的にはそのように判断しています。
 ということで、今のところ「PC側で悉くやっちゃってDSD256化して送り込むことでDACチップをアナログLPFとしてのみ使う」作戦をとっています。
 DSD音源を聴くためではなく、このためにネイティブDSD再生を利用するワケですね。

・DACチップに供給されるアナログ電源とデジタル電源とGNDの質を高める
 DACチップから出力されるアナログの質を高めるためには、まずはこれでしょう。
 1点アースなどの工夫はありますが、DACチップのデジタルGNDとアナログGNDはアイソレートされてはいませんので。

 ⇒そのためには、DACユニットの電源部が良質であることが必要でしょう。
 そのためにはそういうDACユニットを用いるしかありませんが、ユーザとしても投入する電源をキレイにする工夫ならできそうです(ACでもDCでも)。チープなACアダプタ電源(当然イマドキはスイッチング電源)などの場合、そこに手を打つなどです。ERIでも、かつてDC電源の浄化、なんてやってたことあります。
 ただ、“付属品で音質チューンされている可能性”もありますけれど。

 また、「非Audio機器」は極力システムから排除した方がいいと思われます。AC電源を汚す可能性がありますので。
 システム構成で言うと、例えば以下の例ではどちらがシステム全体が低ノイズ=DACチップ(の電源)に優しいでしょう?

    PC (ATX電源,アース接地) 
  → DACユニット (Audio機器電源)

    NAS (ACアダプタ) 
  → ハブ (ACアダプタ) 
  → マイコン (ACアダプタ)
  → DDC (ACアダプタ) 
  → DACユニット (Audio機器電源)

 なお、水晶発振にも電圧必要ですので、発振器用電源もキレイにすべきであり、それはDACチップ用電源とはセットになると思います。

・USBで接続されるPCのGNDとUSB5Vからノイズを貰わない
 PCの5V品質はオーディオグレードからはほど遠いでしょう。ですのでUSB5V(バスパワー)動作のDACユニットは原則的に不利だと思います。
 「5Vを外部供給にする改造する手がある」というのはメリットかも知れませんけれど。

・出来ることならPC側とDAC側を電気的アイソレートしたい
 USBケーブルでのアイソレートは現実的ではない(USBアイソレータという機器もなくはないですが)でしょうから、内部でそういう回路を持っているDACユニットを選ぶしかないでしょう。といっても100%影響をカットできるものではないと思いますけれど。
 ノイズ低減という意味ではUSBフィルタという手もありますが、ノイズは結局GNDに逃がすので、効果を出すにはひと工夫必要そうです。
 PC側からの5Vをカットしても動くDACユニットを用いるという考え方もあります。USB規格からは逸脱すると思いますが、そういう製品もあるようです。ただし、それでもGNDは繋がざるを得ませんが。

 かつてはDDCのワイヤレス化なんてやってましたが、ホントは「光USBケーブル」欲しいですねぇ。HDMIは光化できるんだから技術的には出来そうですけれど。市場性の点で無理かな(バスパワー供給できなくなっちゃいますからね)。

・そもそもPC側のGNDやUSB5Vがよりキレイであるに越したことはない
 クリーンアップするにしても元からいいほうがいいですよね。なので、CPUを初めとするPC部品は極力低ノイズで動いて欲しいところです。

 ⇒そのために低消費電力PCにするという考え方があります。
 が、電源にチープなスイッチング方式のACアダプタを使ったりしたら意味ないかも知れません。また、「低出力電源は低ノイズ」とは限らないでしょう。もしかすると高級ATX電源かつGNDをアース接地した方が低ノイズかも知れません。
 また、M/B上には複数電源を生成するDC/DCがありますが、これらも低ノイズ性能のパーツ・回路(当然高コスト)の方がよいワケで、オーバークロック用やゲーミング用の高級M/Bの方がその可能性は高いでしょう。
 ですので、低消費電力の安価なシステムより、高性能で高価なシステムの方が電源品質がよい“可能性もある”のではないか、と思っています。CPUの安定動作には高品位な電源・GNDは欠かせませんし、強力な電源・GNDはCPU動作(電力消費変動)に影響を受けにくいものですので。速いPCの方がUSBノイズが必ず大きいとは言えないと思います。

 要はUSB経由(可能性としてはAC経由も)でDACユニットに伝わるノイズが小さければよいのであり、DACユニットにしてみれば送ってきた相手が高速PCか低速PC(またはマイコン)かは関係ありませんから、そのためにどんなPC(マイコン)を使うかはチューニング手法のひとつと言えるでしょう。

・USBデータラインを低ノイズ化する
 USB電源と同じく、DACユニットに入れるUSBデータ信号も元からキレイな(低ノイズな)方がよいでしょう。

 ⇒そのためには、USBコントローラはオンボードではなく拡張カードの方が有利なのではと思っています。USB5Vの観点でも、カードによってはPSUからダイレクトに受けた5Vを使えるものもあるようですし。そういうカードなら、改造すればバッテリ駆動も可能かも知れません。
 また、USBは「差動信号」ですので(バランス接続みたいなもの(笑))、USB+とUSB-のケーブル長が等しくないと信号乱れが発生するでしょうから、そういった配慮がなされたケーブルの方がよいでしょう。

・USBの転送タイミングを安定させる
 フレーム周期はClass1なら1ms周期、Class2なら125usです。この周期がより安定していた方が、送受信双方ともデジタル回路の動作タイミングパターンが安定するのでは。

 ⇒そのためには、送り出しシステム内部で生成される周期がより均一である必要があります。例えば、124usと126usが同じ比率で出現することでマクロ的フレームレートの帳尻が合っている状態より、毎回キッチリ125usでI/Fした方が受け側DACユニット内の後段も安定するでしょう。
 USB-DACユニット内にはUSB-I/Fチップがあり、PCからUSBを受信し、それをDACチップが理解できる信号(通常はI2S)にデコードし、DACチップに送信しています(アシンクロナスモードの場合、ここでバッファリングとフィードバック制御することで受信側と送出側のクロックが非同期でもデータ欠損しないようにしています)。このチップのPC側動作が揺れることでDACチップ側の信号にも影響を与える可能性を考えています。

 ⇒そのためには、転送のための割り込み応答性を高くすべきです。
 組み込み用の「リアルタイムOS」でUSB転送のプライオリティを上げるのは正当なアプローチと思われます。
 軽量OSとマイコンの組み合わせも、この効能が大きいのかも知れません。
 PCにおいては、クロックやコア数の性能が高い方が有利な可能性があると考えています。
 また、USB3.0のxHCIの方がUSB2.0のEHCIよりシステム負荷が低いようです。
 「システムは遅い方・古い規格の方が有利とは限らない」のでは、と思っています。

 また、OSチューンもこの効果を狙ったものと言えます。
 ハードウェアチューンとしては、拡張カードを挿すPCI-Expressはチップセットの機能ではなくCPU直結の方がいいかも知れません。

・低ノイズ・低負荷でソースを取得する
 USBの低ノイズ化・転送タイミング安定化のためには、USBコントローラに送り込むソース(音源)取得のための負荷やノイズを極力減らす必要があります。

 ⇒そのためには、音源格納ストレージとのI/Fコントーラや制御システムにつき、割り込み負荷やノイズ発生などの点でどれが有利かよく比較検討する必要があるでしょう。SATA(PATA?)-I/Fの内蔵、USB-I/Fの外付け、SDカード(大抵はUSB経由)、USBメモリ、ネットワーク上のNAS、HDDかSSDか、などなど。
 例えば、内蔵SATA-SSDなら「SSDとSATAコントローラの制御負荷とノイズ」、NASなら「LANコントローラとEthernetの制御負荷とネットに繋がれた機器からLANケーブルおよびAC経由で流入するノイズ」、“どちらがマシか”という比較になります。
 外付けUSBドライブからRAMディスクにアルバムごとコピーしてドライブ外してしまうことで、再生中は音源ストレージレスにするなんて手もありますね。
 ちなみにこれらI/Fではどれもエラーしたら再送されますので、再生される音声のデータエラーは“なし”で同じです。
 また、アタリマエですが、I/Fのタイミングや転送クロックは、どれもオーディオのサンプリングクロックとは全く関係ありません。
 PCのI/Fですから。

・システムのGNDをキレイに(強力に)する
 ざっくり言うと、特にPC(に類する機器)を組み込んでいることに着目した「グランド安定化」がキモではないかと。
 特に「アース」については、後回しにされがちですが実は非常に影響大きいパラメータのようですから、早めに熟考すべきと思っています。
 普通の国内用オーディオ機器は、たとえ3pinインレットでもアース機能ありませんし。
 逆にPC(ATX)はアース前提の機器ですし。
 電源ケーブルの構造も、意外に種類ありますし。


 もちろん正解はありませんけれど。


メインメニューへ

テーマ : オーディオ
ジャンル : 趣味・実用

6コア・パワーオーディオに転身

15/05/23初稿

 ≪foobar2000≫の挙動UDA-1の特性などにつき、メインPCの「GA-Z68X-UD3H-B3 & Core i7-2600K」自作機でいろいろ実験してました。
 その中で、

「PC側でPCM→DSD変換することで、UDA-1をアナログFIRフィルタとしてのみ=DSDストリームアナログ化のためのアナログLPFとしてのみ使う」

鳴らし方はとても魅力的に聴こえました。中でもDSD256(11.2MHz)は別格で、DSD128とDSD256では明らかな違いが感じられました(曲終了時など低音量時のフロアノイズが変質したと思われるしょわしょわノイズが増えちゃう点は気にはなりますが)。

 リアルタイムPCM→DSD変換再生しようとすると、現在のE-350ベースAudio用PCではパフォーマンスが絶対的に足りませんのでプラットフォーム変更が必要です。
 また、USB-DACをUSB-I/Fで接続する必要がありますが、それにはUSB3.0拡張カードが有効そうです。
 また、ハイレゾマルチのためHDMI-Audioもできるようにしておきたいのですが、先に「Audio用HDMI(画面は黒)と操作画面は独立したGfxエンジンで描画した方がよい」「CPU内蔵Gfxは使わない方がよい」と考えました。つまりGfxカード2枚挿しです。

 Audio再生用PCで「新しくやってみたいこと」がこれだけ揃ったので、ケース新調を含めた“全面刷新”検討に入りました。

 以下、再生処理はすべて≪foobar2000≫にて。


 本稿はチューニング系の記事であり、事実としての理屈も客観的データもありませんから一般論にはなり得ません。
 「いぢくるリクツを思いついたのでやってみたらウチの環境ではこう聴こえた」ってお話です。


■DSD256変換をスタンバイする

 最初に。
 上記は「DSD256(フォーマット)がいい」という意味ではありません。DSD256ビットストリームをアナログLPFするだけの再生音が魅力的という意味です。
 挙動を調べた結果、UDA-1は

・DSDストリームを無加工でDACチップたるPCM1795に入れている
・PCM1795は確かにDSDストリームをアナログLPF(アナログFIRフィルタ)処理だけでアナログ化している

と判断しましたが、DSDデータを受けても内部でPCM変換するようなDACチップ(変換してDACチップに渡すユニット)もありますので、そういった機器では事情が異なるでしょう。
 そもそもDSD256はUDA-1仕様外っていうのはさておき(笑)。


 さて、≪foobar2000≫によるリアルタイムPCM→DSD256変換再生(将来的にはDSD512も?)を安定的に動かすにはどのくらいのCPUパフォーマンスが必要なのでしょうか。PentiumやCeleronでもイケるのか、Coreクラスが必要なのか、はたまたスレッド数はいくつ以上必要?

・タブレットで挑戦
 これまで使っていたのは「性能落としても安く低消費電力にする」カテゴリのCPU、AMD製E-350です。
 このカテゴリもどんどん進化していますので、最近の当該カテゴリCPUでもやっぱりダメなのかは気になるところです。例えばAtomでもBayTrail世代からはCPUパフォーマンスかなり上がっていますので。
 幸いタブレットのmiix2が手元にありますのでこれで試してみました。AtomZ3740(BayTrail)、4コア4スレッド/1.33GHz(バースト時1.86GHz)です。

 結果、PCM→DSD変換再生はキツかったです。SoXのx4x2→DSD64でギリギリ? DSD128やDSD256だとチリチリノイズが入ります。
 CPU使用率は50%程度なので使い切ってるワケではありません。“何かが間に合わない”模様。なんだか、単純なデータ変換処理能力だけの問題ではないような気がしました。システム全体のパフォーマンスというか…
 OSが32bitですけれどそれは決定的に効いてないと判断しています。

 16/04/30追記:いろいろ条件異なりますがCeleron847(2コア2スレッド/1.1GHz)で試したところ、SoXのx2x2x2x2x2→DSD256(TypeD:FP64)で88%くらいでした(クロックはフルスピード張り付き)。ノイズは無いようです。OSはWindows10(64bit)です。

・メインPCでシミュレーション
 いずれにしろ、新システムは「低消費電力系」ではなく「デスクトップ系」カテゴリのCPUで組む必要があると判断しました。ですが、デスクトップ系といっても選択肢はピンキリです。一体どのくらいのパフォーマンスが必要なのでしょう?
 そこで、メインPCのBIOS(正しくはUEFIですが。以下同)設定を変更することでCPUパフォーマンスを上げ下げして必要性能の見極めを実施しました。汎用的に使っていますのでAudioに無関係なプロセスも大量に走っていますが、それによって不利になる分はマージンとみなしています。
 1644WAV音源をResampler-V(SoX)でx4してからTypeB(FP32)でDSD256変換。Z68内蔵USB経由でUDA-1を鳴らしてHD700でモニタリングです。CPU状態がBIOS設定状態になっているかは≪CPU-Z 1.71.1≫で確認しながら実施。

 闇雲に設定しても意味ありませんので、まず最廉価CPUの可能性を確認するための“仮想Pentium”で試しました。
 2.8GHz/2コア/2スレッド(当然TurboBoostもDisable。以下同じ)設定です。

 これでも変換自体はイケそうでした。

 しかし、何回か確認しているうちに「なんだか2600K定格と音質が違う」ような気がしてきました。
 実はUSB負荷比較した時にもそんな気がしていたのですが、主旨ではないこともありスルーしてたんですよね。
 が、これはもしかして? と、さらにいろんな設定で聴き比べてみました。
 結果、最低設定の1.6GHz/2コア/2スレッド(*)より定格の3.4GHz/4コア/8スレッドの方が好ましい音がするのです。チリチリなどのノイズのハナシではなく、です。

*:USB割り込み負荷記事でも記しましたが、1コア/1スレッドにするとDSD変換だけでパフォーマンス使い切ってしまうので。

 そこで、さらにいろいろなクロックやコア数(スレッド数)の組み合せで比較してみたところ、概ね、クロックよりもコア数(スレッド数)が効いているように聴こえました。例えば、3.4GHz/2コア/2スレッドより1.6GHz/4コア/8スレッドの方が好ましいのです。

 ただし「DSD256再生では」です。DSD128以下では差は気になりませんでした。

 もちろん本当かどうか判りません。もし本当だとしても正確な理由など解るハズもありません。
 しかし、USBコントローラやドライバによって割り込み負荷が大きく変わるのは事実です。USB割り込み負荷が低い方が好ましいとするなら、CPUパフォーマンスが高い方が当然負荷は下がるでしょう。また、割り込みをスムーズに処理する(処理待ちを短くする)ためには同時処理可能スレッド数が多い方がいいのかも知れません。割り込み処理のために“すぐ使える”スレッドが空いてる確率が上がるのではと。

 「CPUパフォーマンスは高い方がよい」「特にスレッド数が多い方がよい」可能性があるのではないかという気がしてきました。そういえば、以前コア数と音質について考えたことがありましたが、その記事にも「シングルより8スレッドの方が好ましい」という感想を記しています。
 ていうか、こうなってしまうと、「DSD256変換再生するなら実験に使ったCore i7-2600K以上のシステムでないと実験結果感じた良さを担保できない」ということです(笑)。もちろんウチでの勝手な判断ですけれど。

・コンセプトチェンジ
 これまではAuido再生用PCについて

「Audio再生においてCPUパワーは有り余ってる」
「なので、余計なノイズ発生を抑えるため低クロック=低消費電力のCPUが望ましい」

と思っていました。
 しかし、特にDSD256クラスのコンバート動作やデータ転送を行う場合、「CPUパワーはあった方が有利」というリクツもあるのではないかと思えてきました。とりあえずはUSB-Audioの場合限定ですが。

 演算能力そのものというより「USBコントローラへのデータ転送タイミングの安定化」ではないかと思っています。処理性能に余裕があれば割り込みを即時処理できるでしょうから、USBコントローラとのI/F動作周期が安定する=回路動作の変動が減るのが好ましい、というカンジでしょうか?
 「原則データ転送するだけ」のWAV再生とは異なりDSD256変換再生ではデータ変換処理にもしかるべき負荷かかりますので、もちろん結果的に演算能力も「割り込み処理周期安定化」に効いてくるでしょう。
 「クロックよりスレッド」が効いているようなのも、転送要求に対する即応能力に有利なためではないかと勝手に想像しています。

 しかし、“従来の常識(?)”的には、Audio用PCにデスクトップカテゴリ高性能CPUなんてあり得ないですよね。
 ですが、そもそも「低性能CPUが望ましい」のは「低消費電力にしたいため」であって、「低消費電力にしたい」のは「低ノイズ化したい」からです。
 つまり、本来の目的は低性能のCPUにすることではなく低ノイズ化です。「CPUパワー」はあって困るものではありません。ていうかデメリットがないならあった方がいいでしょう。
 そもそも低性能=低ノイズも「どうせ要らない性能なら」という条件付きで「だったらなるべく低い方がいい“ハズ”」という考え方だと思いますし。

 ここでPCの世界を改めてみてみますと、ハイパフォーマンスシステム、特にオーバークロックやゲーミングなどを目的としたハイエンド系M/Bでは、安定動作のためミドルクラスや廉価版とは違った設計が施されています。例えばOC性能向上には電源やメモリアクセスの安定性が求めらるため、CPU電源回路のフェーズ数が多かったりPWBが6層や8層といった贅沢な設計になっていたりします。
 つまり、“フツーの廉価版やミドルレンジ”ではなく“OCやGaming用”のM/Bなら、システム全体の低ノイズ性において「低消費電力CPUシステムに勝るとも劣らない」可能性もあるのではないでしょうか。

 PSUにしても、高出力仕様の方がノイズが大きいとは限りません。高出力でも高級品なら優れた電源品質を持っている可能性もあるワケです。さらに言うと、同じ電力を使うなら“物量”という点で高出力製品の方が有利かも知れません。


 PCMデータをアナログ音声にするまでにやるべきことは決まっています。
 ざっくり言うと、イマドキのシステムでは次のような処理しています。

step1.ストレージから読み出し
step2.アップサンプリング(*)によるイメージングノイズ除去
step3.PCM→ΔΣ変換
step4.ΔΣストリームをアナログフィルタ(LPF)でアナログ化

*:オーバーサンプリングデジタルフィルタと同機能

 言うまでもありませんが、step2~step3は純然たるデジタル信号処理です。
 やるべきことをどこでどのようにやるかを変えれば音質は変わるでしょう。そして、PC-Audioは“どこでどのようにやるかを変える自由度が大きい”のが特長です。
 “自由自在”とまでは言えないまでも。

 消費電力やノイズについては、「アナログ化するところでいかに良質な信号を得るか」から逆算するコンセプトで「再生システム全体」として考えるべきではないか、という気がしてきました。
 例えば、アップサンプリングやΔΣ変換をPCでやるのとDACでやるのでは、その信号処理精度はさておき、どちらが低ノイズ…というか“アナログ化回路に優しい”のでしょう?
 24bit192kHz対応DACチップでの24192WAVデータの再生を考えると、前者は

「まだまだ余裕のハイパフォーマンスPC → まるで余裕のDAC」 状態ですが、後者は
「まるで余裕のハイパフォーマンスPC → 最大スペックでフル回転のDAC」 となりますよね。

 また、例えばもしイコライジングするなら、専用のハードウェアをカマすのとPCでソフト処理してから送り出すのとでは、システム全体でみた時どちらの方が悪影響少なくて済むのでしょう?
 さらに、音源データをPCローカルストレージに持つのとHUBや無線LANを介しEthernetの向こう側にNASで持つのとでは、どちらが…?


 ハイパフォーマンスシステムでいってみようと思います。


■Audio用PC変更

・新システム選定
 ということで、新システム選定のポイントは以下となりました。

・2スロット占有型Gfxカード1枚を含むGfxカードが2枚挿せる
・USB3.0カード(PP2U-E)が挿せる
・できればAudio用GfxカードとUSB3.0カードはCPU直出しPCIeに挿せる
・できればNo-PCIeを挿せる
・できればNo-PCIを挿せる
・できればPCIがあってSE-90PCIなどが挿せる
・できればPS/2ポートがある
・スレッド数が多いCPU
・演算性能が高いCPU

 つまり、PCIeが3、PCIが1以上は欲しいということです。GfxカードはHD7750とHD5450を想定しますので、HD7750のヒートシンクで潰すスロットも必要です。PCIは、まあ「無いよりいいかな」くらいですけれど。

 スレッド数が効いてると仮定していますので、できるだけそれが多いCPUにしたいです。
 となるとAMD製よりIntel製がいいでしょう。最近のAMDアークテクチャではコア間でFPUを兼用してたりしますし(*)、流石にあんまり熱いのは避けたいですし。

*:高性能プレーヤソフトの演算はFloatingPointでしょうから、FPU数=コア数と考えた方がいいでしょう。

 Intelの中でもPentiumやCeleronは除外されます。Core i3もリアルコアが2個しかありませんので微妙です。
 しかし、4コア4スレッドのCore i5はスレッド/コストのパフォーマンスがあまりよくありません。
 といって4コア8スレッドのCore i7は高いです。

 などといろいろ比較しているうち、「…LGA2011もアリではないか?」と思えてきました。
 LGA2011v3のX99では現時点ではC/Pが最悪のDDR4を新調しなくてはなりませんが、LGA2011なら手持ちから流用可能なDDR3ですし、CPUも例えば「6コア12スレッド」のCore i7-3930Kの中古がLGA1150の新品Core i7-4790(4コア8スレッド)より安価なためです。
 CPU直だしのPCIeレーンもたっぷり40レーンあります(LGA1150は16レーン)。今回使わない方針の内蔵Gfxもないので、出てくるPCIeレーンはCPU内部コアには接続されていないハズであろうことや、バックパネルI/Oに要らないGfx系がないことも気持ちいいです。



http://ark.intel.com/ja/products/63697/Intel-Core-i7-3930K-Processor-12M-Cache-up-to-3_80-GHz

 LGA2011が候補になるとは自分でも意外(笑)でしたが、

 「パワーこそ正義」「スレッド数重視」のコンセプトでやるなら、これまでとは真逆にとことん振ってみるものいいかも?
 いや、流石にやり過ぎ?
 でも、どうせ「省電力系CPU」じゃダメという“スレッシュを超えて”「デスクトップ系CPU」にせざるを得ないなら、中途半端に廉価版や普及版にするより電源回路品質などの点でいいのでは?
 もしダメだったらメインPC代替えとして使えばいいんじゃないか?

 …などと悩んでいたら展示品処分のLGA2011マザーボードに出会ってしまったので決定(笑)。
GIGABYTE intel X79 LGA2011 ATX DDR3 4ch,4DIMM 4way SLI/CrossFire RealtekALC898 8chDloby DualUEFI 3DBIOS GA-X79-UD3
GIGABYTE intel X79 LGA2011 ATX DDR3 4ch,4DIMM 4way SLI/CrossFire RealtekALC898 8chDloby DualUEFI 3DBIOS GA-X79-UD3
http://www.gigabyte.jp/products/product-page.aspx?pid=4050#ov

 GA-E350N-USB3の時にも注目した「UltraDurable3」の2オンス銅ですし。
 PWBを観察するにおそらく6層ですし(QuadChなので4層は普通無理)。
 CPU電源は8フェーズで「日本製コンデンサ搭載」だそうですし。
 よく知らないですが、OCクロック世界記録達成マシンに使われてたらしいですし。
 メモリチャンネル数は欲しいですが容量は要らないので、空きスロットが信号波形を乱すのはイヤですから1slot/chは願ったり叶ったりですし。

・新システム構成
 ということで、以下、新Audio用PCの全貌です。

・CPU・・・Core i7-3930K 3.2GHz 6コア12スレッド
・M/B・・・GIGABYTE製GA-X79-UD3
・メモリ・・・ADATAの4GB
    E-350システムから流用
    「パワーこそ正義」コンセプトに基づき、使わずにいた1枚を足して
   8GBデュアルアクセスに
・PSU・・・SeaSonic製SS-400FL(ファンレス)
    E-350システムに投入した時には
   あんまりよくなったのを復活
・CPUクーラー・・・CoolerMaster製Hyper212EVO
・ストレージ・・TOSHIBA製CSSD-S6T512NHG6Q
    E-350システムから流用
・ケース・・・Abee製smartP06
・OS・・・Windows8.1 update1 x64

 スロットの使い方は以下の通り。

・slot0:PCIe x16 PP2U-E  CPUに一番近いところに配置
・slot1:PCIe x1 NO-PCI Express
・slot2:PCIe x8 HD7750  HDMI-Audio専用I/Fとして
・slot3:PCIe x1 HD7750のヒートシンク
・slot4:PCIe x8 空き
・slot5:PCI   NO-PCI
・slot6:PCIe x8 HD5450  操作画面用として

#x1以外はCPU直だしPCIeレーン
#slot4はslot6を使わなければx16

 BIOSやOSの高速起動関連機能はオフした方がいいでしょう。ハードであれOSであれ、毎回フルリセットした方がいいと思いますので。ちょっと早く起動するより気持ち的にもメリットあると思います。

 メモリはDDR3-1600設定(BCLK100MHzの16倍。PLLは整数倍が気持ちいいので。2の4乗ですし)。1.20Vで安定して動いています。

 使わないオンボードデバイスはDisable。LANもです(もちろんケーブルも繋ぎません)。チップセット内蔵USB2.0もDisableしちゃいました。ふたつあるオンボUSB3.0チップもリア側はDisable。K/BなどのUIFはフロント側チップのポートに接続。BIOS画面出せます。いざとなればPS/2ポートもありますしね。
 さらに、デバマネのUSBルートハブプロパティでRenesasもFrescoも「電力の節約のために、コンピューターでこのデバイスの電源をオフできるようにする」のチェックを外してみました。Audio再生中に電力節約することはないので。
 良くなったような悪くなったような? 省電力系の設定は微妙っすね。

・ファン
 CPUクーラーとケースリアに120mmFANを投入しています。
 「オーディオ用PCはファンレスにすべき」という一般論(?)に逆らってるワケですが、そもそもファンレスにする理由は何でしょう?
 「騒音」だとすると、実は6コアCPUでも気にならない程度に抑えられますので実はあまり問題になりません。
 「振動」でしょうか? が、大型の低速FANなんてすごく穏やかに回りますから、影響は想像しにくいです。そもそもスピーカ再生音による振動の方がデカイような気がしますし。
 あるとすると「12V電源を汚染する」という可能性の方が大きい気がします(イメージです)。だとすると、PWMや電圧制御こそ“もってのほか”なのかも知れません。FANレスにしたらよくなったという場合、この可能性も考えた方がいいかも知れません。
 詳細は「FANコントロール」項をご覧ください。

 ということで、当初は普通にM/B上のコネクタに接続していましたが、「ファンコンレス」のためPSUのペリフェラル電源からの直接給電に変更しました。もちろん常時定格回転になりますので、定格でも冷えて五月蝿くないFANを選定。
 「だからFANレスにすべきなんじゃん」と言われそうですが、電子回路は概ね高温の方がノイジーになりますから無理せず冷やした方がいいような気がしています。

・電源と消費電力と騒音
 PSUはファンレスですので当然無音(まあ、Audio再生ならセミファンレス方式でもFANは回らないと思いますが)。CPUクーラーを下から上への縦エアフローで装着してPSUに風を当てるようにしています。そうして押し出されたPSUの排気はほんのり暖かい程度。もちろんCPUもちゃんと冷えています。

 120mmのケースFANとCPUクーラーFANはゆったり回っており気になるような騒音は聞こえません。生活雑音レベルで問題ないと思います。
 SS-400FLのケーブリングはフルモジュラー方式です。PP2U-Eペリフェラル電源ケーブリング、SSD電源ケーブリングはそれぞれ専用にしています。低ノイズで定評ある電源ではありますが、内部ケーブルにフェライトコア付けた方がよさそうです。

 さて、気になる消費電力ですが以下の通りとなりました。ワットチェッカにて。
 UDA-1による再生です。PCMはE-350システムとの比較を考慮し排他WASAPIにて。

・起動時  120W程度 瞬間最大180W
・アイドル  61W安定
・≪foobar2000≫起動時  71W
・x2x4→DSD256再生  64W
・x4PCM再生  62W
・x1PCM再生  62W

 DSD256変換に2Wくらい使ってるカンジでしょうか(データ量も増えてますが転送動作で電気増えてるとも思えないので)。
 HD7750を組み込んだE-350システムの電力は起動時60Wアイドル時55W程度でしたので流石に増えてますが、パフォーマンス/ワットで見ればかなり優秀でしょう。納得です。
 80PLUS GOLDたるSS-400FLの効率やHD7750の新ドライバによる省電力化も効いてるとは思いますが、Gfxカード2枚挿しで通常運転時60W程度なら“6コアCPU恐るるに足らず”ではないでしょうか。
 省電力動作Enableですので再生時のタスクマネージャ読みのクロックは1.3GHz程度ですが、忙しい瞬間には(表示されないだけで)クロック上がっているハズだと思います。

 もちろん電源関連はケアしています。PCの電源はCSE製TX-200でアイソレーション(TX-200にはACノイズフィルタをカマして壁コンに。壁コンは宅内アースではないアースに接続)。UDA-1にはCSE製RG-50でレギュレートしたACを入れています。

・音質
 PP2U-E経由UDA-1によるDSD256変換再生、おおむね実験段階に想像していた音質が得られました(仕様外ですけど(笑))。HDMI経由の音はまだキチンと聴いていませんが、E-350システムより劣化した印象はありません。いずれにしろDSD128や256のリアルタイム変換はE-350システムでは聴けなかった音ですので満足です。

 「DACユニットをアナログLPFとしてしか使わない」再生音は独特の“風合い”が得られます(特にDSD256において)。解像感がありながらキツさはなく、力強さはありますがメリハリもあります。録音の特徴(良し悪し・善し悪し)がそのまま出るように思います。

 一転してかなりのハイパワー&マルチファンクションなシステムになりましたが、今のところ、「消費電力が大きいCPUはやっぱりノイズが~」といったデメリットは感じていません。
 「パフォーマンスを気にせず、やろうと思ったことが概ね出来る」のは大きなメリットだと思います。


■履歴メモ

・16/11/12:ケースをWinDy製MT-PRO1250にしました。それに伴いケースファンはSANYO製SF8-S2(80mm/1300rpm/10dB)に変更。

・16/07/16:HD5450はパージしました。
・16/05/29:OSをWindows10Home x64にしました。
・16/02/07:CPUFANは、DIMMを4本にしたことに伴いノーマル仕様の横フローに付け替えました。ぶつかっちゅうので。
・16/02/27:メモリは同型を調達して4x4GBのクワドアクセスにしました。電圧は1.25Vになっちゃいましたが。
・17/06/10:HD5450レス&DIMM4本構成、UD-503でのDSD256再生で60W。


■GA-X79-UD3のクセ

 このマザボ、結構トラップありました。メジャーじゃないからですかね(苦笑)。

・入ってたBIOSバージョンF7ではQ-flashはエラーして使えず。OS入れて@BIOSを使ってF20にアップデート。
・TouchBIOSはマニュアルに載ってるけど非対応。
・マスターGfxにするスロットの表記と現物の対応がマニュアルと実機で違う。F20にて以下の通りだった。
   PCIe slot1  PCIEX16_1
   PCIe slot2  PCIEX8_1
   PCIe slot3  PCIEX8_1
   PCIe slot4  PCIEX16_2 & PCIEX8_2
 設定したスロットにGfxカード挿してないとBIOS画面が出なくなっちゃうから大変。
 PCIEX16_2とPCIEX8_2が被ってるのはPCIEX16をディバイドして使うスロットなためか? 両方挿すとどうなるかは不明。
・ウチの構成ではHD7750はHDMIではBIOS画面をPanaのプラズマTVに出画できなかった。
・ウチの構成では高速起動設定すると再起動を繰り返すことあり。
・不明な通信デバイスはTPM。無理矢理ドライバ指定すればインストールできた。
・X79のPCIは実はネイティブ。
・BIOSで設定できる最低周波数は1.2GHz。2600Kの1.6GHzより低いのはコアが多い分クロックで省電力性能を稼ぐためか。
・オンボUSB3.0はFrescoLogic製2個。#1(無印)がフロントで#2がリア。
 エルミタージュ秋葉原レビュー記事(*)の写真説明ではFL1000-200となっているが実物はFL1009-200。

*:http://www.gdm.or.jp/archive/review/mb/gigabyte/GA-X79-UD3/index_01.html


メインメニューへ

テーマ : オーディオ
ジャンル : 趣味・実用

USB-Audio用USBを考える

15/05/02初稿

 ハイレゾについて考えていたら、≪foobar2000≫のPCM→DSD変換によって「DACユニットをアナログLPFとしてのみ利用する」用法はとても魅力的に思えてきました。
 そのためには(手持ち機材としては)UDA-1を使う必要があります。つまりUSB-Audioです。しかし、これまでずっとHDMIばかりケアしてきたのでUSBについてはほとんど白紙です(笑)。今更のように“AudioによいUSB”について考えることになりました。

 なお、本稿に記す音質関連の評は客観的なデータとの因果関係に基づくものではありませんから、一般論にはなり得ません。
 「こう考えてやってみたらこうなったので私はこっちにする」ジャンルのお話です。
 せっかくいろんなUSBポートがあるんですから、漫然とではなくどうしてそうするのか考えないとモッタイナイ(笑)。


■Audio用USBポート考察

 はじめに。一部誤解があるようにも見えますが、USBは原則「新しいホスト規格は古い規格をサポート」しています。
 例えば、ONKYO製SE-U55SXはUSB1.1デバイスですがUSB3.0ホストに繋いでも動きます。もちろんUSB1.1モードでリンクして、です。
 USB3.0に繋いだからといってUSB2.0対応DACユニットとのI/F速度は10倍になって空回りしたりはしません。

 逆に「ホストの規格にダウンして動くデバイス」もあります(ていうか概ね動く?)。例えば、USB1.1ホスト(*)にUSB2.0デバイスたるUDA-1を繋いでも動きます。もちろんUSB1.1モードでリンクしており、24192などのハイレゾは通りませんけれど。
 ちなみにSB-DM-PHDもUSB1.1HUB経由で(少なくとも再生機能は)動きました。

*:さすがにネイティブUSB1.1ホストは所有していないので、実際にはUSB1.1時代のHUB経由で確認したものです。

 ですが、一般的には(CPUと同じように)「ホストはなるべく低速規格の方がAudioにはヨイ」信仰があるように思います(互換性のハナシは別として)。USB3.0より2.0、もしかしたら1.1信仰もあるカモ?
 しかし、実体験としては、オンボードのRenesas製3.0コントローラの方がチップセット内蔵2.0より好ましく聴こえたことがあります。

 そういう可能性あるのでしょうか?

・割り込み負荷
 そこでUSB3.0について調べたところ、2010年の大原雄介氏記事(*)を見つけました。今更でスイマセン。
 これによると、USB3.0コントローラ「xHCI」ではCPU負荷軽減が図られている模様です。1.1も2.0も3.0もすべてxHCIが制御するとのことですから、2.0モードでも1.1モードでもその恩恵を受けられると理解できます。
 つまり、速度ではなく割り込み負荷の意味で「USB-Audioでは3.0(というかxHCI)コントローラを使った方が有利」な可能性はあるのでは。

*:http://pc.watch.impress.co.jp/docs/column/interface/20100930_396807.html

 ちなみに、各世代のコントローラは以下の通りです。

・UHCI・・・USB1.1世代。IntelとVIAが採用。バスマスタ転送非対応
・OHCI・・・USB1.1世代。NEC(現Renesas)など。バスマスタ転送対応
・EHCI・・・USB2.0世代。USB2.0専用
・xHCI・・・USB3.0世代。USB1.1も2.0も制御できる

 そういえばUSB-Audioデバイスがまだ1.1だった時代、「UHCIよりOHCIの方が負荷が低いのでUSB-Audioに有利」なんてハナシあったことを思い出しました。本件はその続きになるでしょうか。

 Renesas製コントローラチップの内部ブロック図を見ると、USB2.0コントローラ(*1)ではUSB1.1用のOHCIと2.0用のEHCIが搭載されていますが、3.0コントローラ(*2)にはxHCIしかありません。USB2.0世代では1.1と2.0のコントローラコアが異なっていたワケですが、3.0世代では確かにひとつで全規格まかなってるようですね。
 USB2.0世代では「1.1デバイス接続時にはどうせ使ってないEHCIを無効にする(USB2.0をDisableにする)」といった“チューニング”もやりましたが、USB3.0世代ではそのあたりの事情も変わっているということですね。

*1:http://japan.renesas.com/products/soc/usb_assp/product/upd720102/index.jsp
*2:http://japan.renesas.com/products/soc/usb_assp/product/upd720202/index.jsp

 ということで、「負荷」について実動作で確認してみることに。

・GIGABYTE製GA-Z68X-UD3H-B3&2600Kの自作メインPCを使用
  Audio用E-350システムじゃないのは、いろいろ弄くる必要があるため
・DACユニットはUDA-1
・≪foobar2000≫による1644WAVのDSD256変換再生にて
  転送データ量をできるだけ多くするため
  なお、データ量には関係ないがResampler-Vでx4にしている
・USBコントローラ
  オンボード2種
    Z68チップセット内蔵(USB2.0)
    Etron製EJ168(USB3.0)
  拡張カード3枚
    Renesas製uPD720200(PCIe,USB3.0)
    Renesas製uPD720202(PCIe,USB3.0)
    Renesas製uPD720102(PCI,USB2.0)

 タスクマネージャで「割り込み負荷」を見ます。2600Kの定格では1~2%程度となりほとんど差が出ませんので、BIOS(UEFI)でCPU動作を最低レベルの「1.6GHz/2コア/2スレッド(当然TurboBoostはDisable)」に設定しました(“最高の最低”1コア/1スレッドじゃないのは、DSD変換でパフォーマンス使い切ってしまうためです)。
 正確な数字かどうかアヤシイですが、ざっくりした相対比較はできるのではないかと。

 すると、確かにUSB2.0よりUSB3.0の方が負荷率は低いようです。

 また、OSのINBOXドライバとベンダ提供ドライバ、そのバージョンなどでも“倍”レベルで変わります。
 Etron製EJ168はGIGABYTEやEtron社サイトにある“純正”ドライバだとほとんどハング状態になってしまいましたが、OSのINBOXドライバに変更してみたらちゃんと動きました(苦笑)。(特に初期型の?)USB3.0チップ、イカガワシイこともあるようです。
 これは極端な例としても、ドライバのデキでも負荷は結構変わる可能性を感じました。

 う~む。「割り込み負荷」的には、USB3.0(xHCI)の方がいいような気がしてきました。

・バスパワー品質
 さて、USBポートにはUSBデータI/F以外にも着目すべきポイントがあります。言うまでもなく「バスパワー品質」です。
 バスパワー駆動の機器には当然大きな影響を及ぼすでしょう。UDA-1ではホストが活きてるかの検出にしか使っていないようですが、それでも品質(GND含め)はイイに越したことはありません。

 そのUSB5Vの“出自”ですが、M/B標準搭載のUSBポートでは、チップセット内蔵であれオンボコントローラ(イマドキはPCIe接続)であれ、M/B上の5Vが使われているハズです。GIGABYTEやMSIではその品質を向上させたことをウリにするM/Bも出していますね。
 一方、USB3.0の拡張カードはペリフェラル電源を入力して使う仕様になっています。当該電源はM/Bを経由しない“PSUダイレクト”の5Vです(ただしそれを繋がなくても使えるカードもあります。後述します)。
 また、電源回路部品(コンデンサなど)の配置スペースやコストの制約が大きいM/Bより、それが確保しやすい拡張カードの方が、5V電源品質は高いような気がします。実際、オンボではFUSEを複数ポートで兼用してたりするようですし。

 そこで、試聴してみるためPCIeのUSB3.0拡張カードを調達。USB3.0コントローラとしては定評あるRenesas製uPD720200F1です。N/Bですけど。
 ざくっとオンボと聴き比べしてみると「ちょっといいかな」というところ。
 しかし変化は感じたので、より新しいuPD720202も試したくなりました。新型はノートPCを考慮して低消費電力化されたということですし、割り込みもより洗練されて低負荷になっているかも知れませんし。
 uPD720202搭載カードを物色したところ、“USB-Audio用として”ちょっと魅力的な商品を見つけました。

  PP2U-E : uPD720202搭載2ポートPCIe2.0-USB3.0拡張ボード ver1.0
                 PP2U-E : uPD720202搭載2ポートPCIe2.0-USB3.0拡張ボード ver1.0

PP2U-E : uPD720202搭載2ポートPCIe2.0-USB3.0拡張ボード ver1.0

 EはEnhance=強化版の意でしょう。

http://www.bplus.com.tw/Adapter/PP2U.html
http://www.bplus.com.tw/PDF/PP1U2U_jp.pdf

   同商品だと思いますが型番違うのもアリ

 三洋製固体電解コンデンサとかLDO(Low Drop Out)レギュレータ(おそらくuPD720202の1.05V電源生成用と推定)とか、よさげではありませんか。

#pdfによるとLDOレギュレータはRICOH製らしい。刻印はH00DPU。EEPROMはChingisTechnology製Pm25LD512。

 早速調達。が、装着したらPCが起動しません。別のPC(Asusマザー)で試してみると、起動してコントローラとしては認識されましたがUSBデバイスを挿してもウンスン。
 不良品かと思いましたが、いろいろ試したところ挿したUSBメモリのLEDが点灯しないことに気づきました。ではとペリフェラル電源を繋いでみたらサックリ動作(苦笑)。このカード、内部ペリフェラル電源を繋がないとUSBデバイスが電源不足になるだけでなく(M/Bによっては?)正常動作しない仕様だったのです。

 N/Bカードでは繋がなくても使えたので油断してました。つまり、カードによって違いがあるということです。

・バスパワー生成の種類
 そこでUSBバスパワーとPCIe x1スロットの電源について調べてみました。
 N/Bカードはペリフェラルコネクタを繋がなくてもUSB5Vを供給できるのですから、PCIeのエッジコネクタからの電源でそれをまかなっているハズです。が、実はPCIeには5V供給はありません。ですので、12Vからレギュレートしていると推定されます。
 しかし、通常のx1スロットの12Vの供給能力は規格(*)では0.5Aなので、単純に5V換算すると1.2Amaxです。つまり、USB3.0仕様である900mAは1portしか供給することはできません。

*:http://pc.watch.impress.co.jp/docs/column/hot/20100324_356370.html
 x1でもサーバ用途などではもっと流せるものもあるようですし、x4以上だと能力は拡大します。USB3.1世代などx4以上のカードの場合は事情が変わりそうです。

・N/Bカード
 ペリフェラル電源は必須ではないワケですが、パターンをテスタで追ってみると、スロット電源12Vから生成した5Vとペリフェラル5Vをミックスしているようです。
 ペリフェラル電源を「繋ぐとポートごとに900mA,繋がないとポート合計で900mA」といった仕様の製品もあるようですが、この方式によるものと推定されます(N/Bカードの仕様は不明です)。

・PP2U-E
 こちらはペリフェラル必須ですが、スロット電源との関係はどうなっているのでしょう?
 それを調べるため、まずPCIeカード電源エッジ部のピンアサインを確認します(“裏面”は本論に影響ないので省略)。
 商品写真を加工利用してよいことが確認できているBUFFALOさんのカードIFC-PCIE2U3S2の写真を使わせていただきました。ありがとうございます。

PCIeエッジ

 これを踏まえてPP2U-Eのエッジコネクタ部を見ると、なんとPCIeスロットからの12V供給端子パターンがありません。
 テスタで追ったところ、ペリフェラル5VがFUSE代わりの電源スイッチTI製TPS2068に入り、そのOUTがEMIフィルタに繋がってるようです。
 つまり「PP2U-Eはペリフェラル5VのみをUSB5Vに使っている」ということです。

 USB3.0拡張カードのバスパワー5Vには大きく2種類の出自があると言えそうです。

 となると、「ペリフェラル電源を繋がなくても使える」カードよりも「繋がないと全く使えない」カードの方がUSB5Vの純度は高いと言えるのではないでしょうか。M/Bを経由しないPSUからダイレクトに入った5Vのまま、12Vからレギュレートした5Vと混ぜていないのですから。

 ただ、実物を入手する前に完璧に仕様を判断するのは難しいですね。エッジに12Vパターンがない場合はPSUダイレクト型であることはまず間違いないですが、パターンがあっても部品非実装だったり回路に繋がってないデザインもあり得ますので。ペリフェラル5Vとレギュレート5Vを切り替える仕様や、ペリフェラル12Vから5Vを生成するデザインもあり得ないとは言えませんし。

 ですが、オンボでは「PSUダイレクト」の可能性はまずありませんから、バスパワー品質の点では「拡張カードでよさけなものを探す」方がよいのではと思います。

・バスパワー“チューン”と拡張カード
 たとえ混ぜる仕様であっても、拡張カードなら「パターンカットしたり部品ハズしたりして混ぜないように改造する」って荒技もアリかも知れません。

 PSUダイレクト型の拡張カードなら、USBケーブルなどに細工せず出力前の「バスパワー供給源」を変更できるだろう点も面白そうですね。ちょっと工夫すればバッテリ駆動なども出来そうです。UDA-1はDetect用途のみで5mA程度しか流れないようですからeneloopなどでも実用になりそうです。
 15/05/19追記:eneloopだとダメかも。電源スイッチICをONする電流値が必要かな?
 16/04/13追記:2A出力可能なモバイルバッテリでもダメっぽいです。起動時に突入的な電流が必要?
 16/07/20追記:ちなみに、モバイルバッテリは、バスパワーがデータと別コネクタになってるアコリバのUSBケーブルでUDA-1に直結しても出力オンしません。いくつか試しましたがすべてダメ。UDA-1の負荷が小さすぎて繋がってることを認識しないようです。
 そういう出力制御していないeneloop4本直列直結ならUDA-1動作しました。

 「USB5VをDetectにすら使っていない」DACユニットもあるようですので、そのような場合はカンタンに「元からカット」接続に出来るのも利点かも。ウチのZ68マザーみたいにカード自体を認識しなくなっちゃうこともありますけど(笑)。


 PP2U-Eの5VはPSUダイレクト型であることに加え、関する回路は上記の通り“よさげ”です(笑)。
 これはいいんじゃないでしょうか。気に入っちゃいました。
 2ポートありますが、ペリフェラル電源からのパターンパスが素直に見える上側を使おうと思います(キモチの問題です(笑))。

・バス純度
 イマドキはCPU&チップセットがネイティブサポートする拡張用バスはPCI Expressしかなく、PCIバスはPCIe→PCI変換チップによって実現されています。拡張するならPCIe一択となるでしょう。
 同じチップでもバスパワーの観点からオンボより「拡張カード」の方がよさそうだと思いますが、さらに、“バス純度”の観点からもそれは補強されそうです。というのも、イマドキのプラットフォームではCPUがPCIe-I/Fを有しており、M/B上にその拡張スロットを持てるからです。チップセット経由のPCIeより純度高そうじゃありませんか(イメージです(笑))。
 オンボチップはチップセットPCIeに接続されるのが普通ですので、「CPUと直結」するためには拡張カードにする必要があるということです。

・シリコン純度
 変なタイトルでスイマセン(苦笑)。
 Intelの場合(SoC除く)、プラットフォーム標準装備のUSBはIOHに内蔵されています。その中ではUSB以外にもSATAコントローラなどのいろんなシリコンがひしめいて忙しく動いています。IOHとCPUとのI/F(DMI)はPCIeの変形版ですので、言ってみれば「PCIe接続のマルチI/Oコントローラ」として実装されていることになります。
 専用チップより不利っぽいですよね(笑)。

・レイアウト純度
 コントローラ→USBポートの配線の観点でも、チップセットUSBより拡張カードの方が有利と言っていいでしょう。チップセットUSBはポートに至るまでにM/Bの中を這い回ることになりますので、他のいろんな信号線の影響受ける可能性が高くなるためです。

・PCIカード
 PCIeと異なりPCIバスには5Vが供給されていますからバスパワーとしてはそれを使っていると推定されます。その点においてはオンボチップやチップセット内蔵と同等と言えるでしょう。
 実事情的にはPCIはチップセットネイティブではなく変換になるってところは不利かもしれません。
 今回試聴用に準備したのはRATOC製PCIU3(USB2.0:Renesas製uPD720102搭載)です。


 「割り込み負荷」「バスパワー品質」「バス純度」「シリコン純度」「レイアウト純度」からすると、USB3.0の拡張カード、よさそうじゃありませんか。
 当然PCIe、それもできる限りCPU直結で。


■USBバトル

 ということでいろんなUSBホストを揃えて試してみることに。
 メインPCにごっそり拡張カードを搭載し、USBポートの聴き比べを敢行。UDA-1を鳴らすUSBホストを決めようと思います。

・CD音源のPCM→DSD256変換
・UDA-1のヘッドホン出力でHD700にて
・Z68メインPCにて
  Audio用システムじゃないですけど、相対比較するだけなので利便性を優先
・PCIeはCPU直結ではなくチップセット側
  チップセット内蔵やオンボやPCIと条件近づけるため

 結果は以下の通り。

 PP2U-E > N/B > オンボ(Etron製EJ168) > Z68内蔵 > PCIU3

 といっても、「PP2U-Eがいい」ことと「PCIU3がイケてない」のは判る気がするのですが、それ以外はダンゴでしょうか。
 やっぱり「USB5Vの出自」は効いてる気がします。
 試しにUSBケーブルを細工して「PCIU3でI/FしてUSB5VはPPU2-Eから供給」してみたところ、PCIU3単独よりはよいように聴こえました。
 PCIU3がふるわないのは「Z68マザーではPCIがネイティブではなく変換チップ経由のため」という理由もあるかも知れません。
 USB3.0は供給可能電流値規格が2.0の倍近く(500mA→900mA)になってることも安定感の面で有利かもです。

 ただし、客観的相関データはありませんので真実かどうかなんて解りません。いくつか思いつく実験してみましたが有効なデータは採れませんでした。
 いずれにしろ個人的に納得するために勝手にリクツ付けして決めたってレベルのお話ですので、採れなくてもいいやと思ってやめちゃいました(笑)。


 以上より、UDA-1用USBとしては、

・なるべく新しい規格の新しいチップ
・オンボではなく拡張カード
・拡張スロットのバスはCPU&チップセットネイティブのもの。つまりPCIe
・USB5Vの出自がヨイもの(PSUダイレクト型など)

という方針で行こうと思います。当面はPP2U-Eでいいでしょう。

 なお、一般的なUSB3.0コントローラチップはPCIe Gen.2のx1接続でしょうから、Gen.1ではなくGen.2で使った方がいいでしょう。もちろんDACユニットとのデータ転送レートのことを言っているのではありません。「割り込み応答性」観点での配慮です。
 また、当然ながら「1カード1デバイス」で使うべきでしょう。Renesasのブロック図を見ても解りますが、チップの中にxHCIコントローラは1個しかなく、「チップ内ハブ」を介して2port接続しているからです。
 ですので、「せっかく速いUSB3.0カードを増設したんだから」などとHDD接続したり、「チップセットUSBを全停止したいから」とK/Bを繋いだりしない方がよいと思います。


 さて、となると。
 PCM→DSD変換再生するならCPU性能的にE-350だと無理があるのでM/B変更は必須です。
 HDMI-Auido用に「Gfxカード」は残しておきたいので、加えて「USB3.0カード」も挿すとなると、フォームファクタもMini-ITXでなく最低でもMicroATXにする必要があります。
 つまりケースごと変更する必要があるということに。CPUパワーを上げるので当然排熱性能も再考する必要がありますし。

 む~ん、全取っ替えかな?


メインメニューへ

テーマ : オーディオ
ジャンル : 趣味・実用

最新記事
ERIへようこそ

Author:らかせ
「最新記事」または
「メインメニュー」からどうぞ

・ファイルへの直接リンク以外はリンクフリー(連絡不要)です

・一応、拍手にコメント(非公開)付けられるようにしてあります

・DB的に利用しており、過去記事もガシガシ書き換えています。特に「最新記事」は初稿から一週間くらいは直してることが多く、大幅に変わっちゃうことも。ご了承ください

・ということもありますし、記すまでもないですが無断転載(ファイル含む)はご遠慮ください

・引用の考え方については「007:諸事」をご参照ください

・アフィリエイトはAmazonのみです

・ハイパーリンクは当Blog記事のみです(054:節電記事のみ例外)

カテゴリ
検索フォーム
FC2カウンター