手がかり

“テレビ”という装置は、音と映像が流れてくる装置であり、そこにチャンネルという何種類もの違う音と映像を流しこむ“流れ”を備えている装置。
最近でこそ、バラエティにおけるタイポグラフィ的表現手法が確立した感があるけれど、そうして画面に出てくる吹き出しにも似た大きな文字は、その文字数の少なさやカラフルさ、フォントの形態もあいまって、「字」の意味も担保しつつも「絵」としての意味合いを多分に含んでいると感じている。

とすれば、(まだ文字本来の意義がある字幕など、一部では残っているところはあるものの)テレビ画面において、「文字」としての、「字」を追い続けるシーンというのは、そうそうはないだろうし、あったところで、「文字」を正確に追わなければ意味が取れないという番組作りはしていないのが通常ではないだろうか。
(一部、新聞記事の切り抜きなどをアップにして引用する、という使われ方もあるにはある。けれど、あれもすべて読み上げるのが基本であり、視聴者に、一字一句“読んで”もらうことを期待されてはいない。あくまで新聞や雑誌から“引用していますよ”、ほらね、という状況証拠を提示しているという図の意味合いが大きいのではないだろうか。)

こうして必死で根拠を固めるまでもなく、“テレビ”というのは「音と映像」のための装置。“モニター”それも“パソコンモニター”が、「音と映像と文字」のための装置であるのに対して、“テレビ”では「文字」の情報は基本的に映像の一部/添え物であって、決してメインには考えられていない、と認識しているのではないだろうかと考えてみる。

 

翻ってインターネットは、YouTubeの出現などにより、非常に映像文化に親和的に変わりつつあるものの、その当初の成り立ち、ホームページという概念などからして、基本、“文字文化を起源とする装置”であろう。
文字に親和性があればあるほど、それは一文字一文字を確実に認識し、文字列を単語として認識し、単語の連なりを文として認識、文章としての意味をくみ取ってはじめて意味を成す。よって、人が文字ひとつ、単語ひとつをきちんと認識できる大きさと時間が必要になるということが求められているもの。安易に映像として送り手の都合で文字が“流れる”のは、それは映像の一部に変化している。

“モニターに映っているもの”が絵や画像であれば、認識手法としては、その画面全体をぼんやりととらえ、特に気にかかる部分(たとえばタレントの顔、料理の主体等々)が、それだと認識できればいい。ディテールを知りたいというよりも、既知の知識で十分補完されうる。既知の知識で補完できないものは、作り手側もそうしてとらえてほしいものとして、アップにしたり、長時間映し続けたりという演出を行う。

もちろん文字であったところで一部の文字を見るだけで単語が補完されるて認識速度が上がるといったことはあるものの、基本的にそれらすべての文字情報が余さず認識されなければならない<文字列という情報>と、俳優の顔の皺ひとつ、まつ毛の一本一本まで認識する必要までもない<映像情報>には、認識手法の違いが存在することが想像される。

 

次世代“テレビ”はどうあるべきか?というようなことを、あちこちのメーカー/シンクタンク等が考えてきたし、それまでにもいくつもそれらを試みた商品が出た。映像画面の横にTwitter画面を出すなどというものも考えられていたし、いくつかあった気もする。

 「すでにみんな、テレビを見ながら、ケータイでLINEとかTwitterしてますよ」

それが、「文字を主体としてなりたつモニター画面」において、そこにテレビ映像を出し、Twitter用の窓を並列させることは、それなりに成り立つようにも思う。なぜなら、それはモニターであり、そのすぐ前にあるのはパソコンを主体とするキーボードやマウス。自在に認識の流れを操作することを前提とした操作盤を備えている。ぼんやり眺めたいときには操作盤に触れなければいい。ただそれだけだ。
だが、「映像を主体とするテレビ画面」において、映像のとなりにTwitter画面が出ている場合、大きさを調整したい、少し前の流れに戻りたいとなったとき、テレビリモコン操作でそれらを自在に操作させようとするのは無理がある。これまで試みられた商品でも、結局失敗した要因の一つはそこではないのだろうか?

“テレビ”は「音と映像」のための装置であり、「文字情報を読んでもらうための装置ではない」んじゃないだろうか。それもリビングという場所で、大型化し、大人数で眺めるシチュエーションを思い描けば描くほど、「文字情報」との親和性は遠のいていかざるを得ない。

 

私の理解としては、ニコニコ動画の文字列も、ある種の「絵」であって、その文字列を正確にすべて読み取ること/読み切ることに意味があるのではなく、キーワードとしての単語という「絵」、または大量に流れている文字が画面を埋め尽くしそうになっているという「絵」という意味が、偶然の演出としてのシーンを生み出しているものであって、「文字そのものの意味や意義」を正確にすべて読み取ることが求められているものではないと思うのだ。
ただ、少ない文字がチラチラと流れるだけの時には確かにそれを読んでいる自分もいる。とすると、どこかにそれが「文字から絵へと遷移」する瞬間があるのかもしれないけれど。

今回は、「文字と映像(動画)」という視点で考えてみたのだけれど、もう少し拡張すると、「文字と静止画」との組み合わせの妙は、確かにあるのではないか?とも思われる。
Chatシステムにおいて、スタンプ(ちょっとした動きもあるが、基本的に静止画)が取り入れられるのは、このあたりに一因があるんじゃないかな。
もう少し考察できそうだけど、それはまた今度。