白っぽいデジタル、黒っぽいデジタル

まだパソコンやインターネットなどが広まるずっと前。とはいえ、「デジタル」というキーワードがそろそろ出始めていたそのころ。

アナログよりデジタルの方がいいとか、いやいやそれは違うとか。そもそもデジタルってのは、0か1か。言い換えれば、正しいか正しくないか。白黒はっきりつくものなんだよ。なんて理解やうわさがあちらこちらで。

 
ある意味正しいけれど、ほとんどの意味合いで違う、というのはいまさら言うまでもない。
デジタルは常に、この通り白黒2値しかできないとするなら、それで撮った写真はカラーにはできない。…はずが、今カラーの、それも非常に高精細の写真が撮れている。
 
 
その理由は言うまでも無く、「それを何ビットで表現するか」という事。
「デジタル」というのは、1ビットで考えれば0か1しかないわけだけれど、ある値をnビット分を使って表現することにより、その段階を表現する。
それが、たとえば昔のパソコンにおいては、8ビットや16ビットが基本の値だった。そうした数を、OSの値と一緒に聞いた事がある人もいるだろう。が、なかなか何を意味しているのか理解されていない事も。まぁ理解する必要は特にはないし。
 
 
だから、その値(たとえば色の白黒、明るさ等々)に対して、どれだけのビットをあてはめて表現するかによって、その細分化具合が決まる。たとえば温度が60度から61度にあがるその1度分を10ビットで表すことに決めたとするなら、その1度は約1000分の1度までデジタルで変化量を表すことが可能になる。
 
要するに、物事はデジタルになったとしても、白黒はっきりしない、階調をたっぷり表せる事がほとんど。真っ白から真っ黒の間には、何段階もの階調が存在するのさ。
 
世の中デジタルになったなぁ…というのを、白黒はっきりしてきたととらえている人には、「ビット数」という概念が足らないってこと。デジタルは即1ビットで表すという思い込みでの話になっている。
 
だから世の中いつも、グレーなんだね。白っぽい時もあれば、黒っぽい時もあって。