アナログとデジタル(その8)
人間は音をアナログ信号として耳で聞いて認識します。ところが、パソコンは「1」と「0」の数字でしか扱えないので、人間が認識できる音として出力するためには、パソコンの中で処理される数値をアナログ信号に変換する必要があります。また、反対に人間が奏でる音楽(音)をパソコンに処理させるためには、音を「1」「0」の数字に変換することが必要になってきます。
その仕組みはどの様になっているのでしょうか。
その過程は、サンプリング(標本化)、量子化、符号化を経てパソコンが扱えるデジタル信号へと変換されます。
サンプリングはまさに連続している波形をぶった切って離散的な数字に変換します。それを決められたビット数に従って整数に整えられます。次に量子化された整数を二進数に変換してデジタル信号が完成します。
少し詳しく見ていくと、サンプリングの際、サンプリング周期毎にデータを読み込むので、サンプリングとサンプリングの間のデータは削除されます。その間の滑らかな波形の情報は失われてしまいます。また、量子化により実際の波形と量子化幅の間の値は丸められます。この様にして作られたデジタル信号をふたたび、アナログ信号に戻すと、サンプリングや量子化で失われた分、元の波形とは多少ズレが生じます。このズレを如何に少なくして元の音を忠実に再現するかは、サンプリング周波数をいくらにしたら良いかとか、量子化のビット数は何ビットが良いかにかかっています。その値は、試行錯誤の末、44.1KHzとしました。また量子化ビット数は、音楽CDで16Bitになりました。
この数値であれば、逆に符号化データを音の信号に戻して聞いても、ほぼ人間の耳には元の音と同じに聞こえるだろうということで決められたようです。
最近のハイレゾ音源は、サンプリング周波数が96KHz、量子化ビットは24Bitとなっており、元の音をより忠実に再現出来るようになりました。
この様に、アナログをデジタルに変換したり、もとに戻したりする際、原理的に僅かのノイズが乗り元の音と僅かにずれが生じますが、一旦符号化されてパソコンやCDに取り込まれると、その値は変わることがありません。また、コピーしても数値のコピーなので元のデータと全く同じものがいくらでも作ることが出来ます。
データの劣化が無いのがデジタルの最大のメリットです。
