Software Design誌連載「ギークハウスなう」第16回(Software Design 2011年8月号掲載)

フィードジャンキーはソーシャルの夢を見るか


フィードジャンキーの時代

ふと思い出したのだけど、何万件という異常に大量のフィードを読んでいるギークがよく話題になっていた時代があった。たしか2006年か2007年ごろ、ちょうど今から4、5年前くらいのことだろうか。フィードを読むというのは、ブログやサイトが配信しているRSSなどの更新情報をRSSリーダーで購読することで、つまり何万件ものフィードを読んでいるということは何万個ものサイトの新着情報を日々チェックしているということだ。

当時は「Web2.0」という今から振り返るといまいちよくわからないキャッチコピーと共にブログやRSSが普及し、大量のフィードを高速に読めるツールとしてLivedoor Reader(以下LDR)が登場して新しもの好きのギークたちに愛用されていた。「誰々は2万件のフィードを読んでいる」「いや、誰々は3万件だ」などという噂話がよく聞こえてきたり、LDRを異常な高速度で使いこなして大量の未読フィードを消化する動画が話題になったり、余りにも読むのが速すぎるためデフォルトのLDRだと処理が遅れるので特別に改造したスクリプトを適用している者もいた。

しかし最近はあまりそういう話を聞かなくなった。何万件のフィードを読んでいると言われてもむしろ時代遅れな感じがする。僕も最近はかなりRSSリーダーを使う頻度が減っている。その原因はウェブ活動の中でソーシャルメディアの占める割合が高くなったからだろう。RSSをチェックしなくても自分が知りたい情報はTwitterやFacebookやはてなブックマークなどのソーシャルサービスを見ていれば大体漏らさないのだ。

Googleからソーシャルへ

Facebookがアクセス数でGoogleを抜いた」だとか「これからのプロモーションは検索エンジン対策よりもソーシャルメディア対策をするべき」などの意見を最近よく耳にするようになった。「ソーシャルメディア」だとか「SNS(ソーシャル・ネットワーク・サービス)」だとか、とにかくソーシャル流行りの最近のWeb業界。TwitterやFacebookがその代表格だが、それらの有名どころに限らず最近のウェブサービスは程度の差はあれソーシャル性を具えているものが多い。

ソーシャル性とは大雑把に言うと、そのウェブサービスの中でユーザーによる人間のネットワークが形成されるということだ。そのネットワークの中で、ユーザー同士が友達になっておしゃべりしたり情報を共有したり、多くのユーザーに人気のコンテンツがピックアップされてトップページに載ったりする。

今がソーシャルの時代だとすれば、その前はGoogleの時代だった。Google以前は検索エンジンといえばYahoo!で、Yahoo!はスタッフが人力でサイトを審査して登録する仕組みだった。そこに、ロボットがアルゴリズムによって機械的にサイトの価値を判断するシステムを持って登場したのがGoogleだった。Googleの登場以降、検索エンジンの主流はかつてのYahoo!のようなディレクトリ型からGoogleのようなロボット型に移行した。それはちょうどブログやRSSが流行し始め、ウェブ上の情報量が爆発的に増えた時期だった。

SEO(検索エンジン最適化)という言葉とともに、当時のウェブ制作では「ロボットにとって読みやすいサイトを作ること」というのが重視されていた。フィードを大量に読みまくるギークも今思えばロボットを目指していたような気がする。しかし、ロボット型検索エンジンはスパムとの戦いであった。ワードサラダと呼ばれる自動的に生成される意味不明な文章を載せたスパムブログが検索エンジンのロボットを騙すために大量に制作された。ブログ同士の交流を促進するとして一時期もてはやされたトラックバックも結局スパムの温床になった。

人間による分散コンピューティング

代わってソーシャルでは、どの情報が重要かを決めるのはロボットのアルゴリズムではなく、そのサービスに参加しているユーザー(の集合体)だ。僕も最近は情報を得るソースとしてソーシャルサービス経由がメインとなりつつある。具体的には「Twitterで複数の人が紹介しているからこの記事は気になる」「ゲーム好きのAさんとBさんがハマっているからこのゲームは面白いはず」「電子書籍に関する情報ならCさんとDさんのブックマークをチェック」「Tumblrを使うならEさんはフォローしておけ」と言った感じだ。自分で一から情報を探さなくても、自分と興味が近い人を追っていれば自分が面白がりそうな情報を大体網羅できる。

何故ソーシャルサービスで十分な情報が得られるようになったのか。それはTwitterのように気軽につぶやきを発信できるシステムが普及したことで、ユーザーの生の声に近い意見がウェブ上に大量に放出されるようになったからだろう。全体の情報量が増えれば自分の欲しい情報がある可能性も高くなるし、統計的な調査もできる。また、ロボット型検索エンジンはときどき無価値なスパムサイトに騙されるが、人間は騙されない。当たり前だが、機械よりも人間のほうが価値の高いページを判定する力が高いのだ。

もちろん、一人の人間がチェックできる情報の量には限界がある。RSSやトラックバックといったシステム、もしくは数万件のフィードを購読するギークたちは、情報を読む効率を上げることで一人の人間がチェックできる情報の量を増やそうという試みだった。それに代わってソーシャルは、みんなで少しずつの情報を分担処理してその結果を共有するという考え方だ。人間をコンピュータと考えればソーシャルネットワーク全体で行う分散コンピューティングのような処理が行われているわけだ。

ただ、ソーシャルのデメリットとしては、6月号のこのコラムでも取り上げたように、デマが流通したり、煽情的な内容ばかり取りあげられたりすることがある。判断するのが人間なので集団心理や恐慌状態に影響を受けてしまうのだ。

それではソーシャルの次に来るのは何だろう、と考えてみたのだが、どうもうまく思いつかない。もし人間並みに判断力が確かで愛嬌もあるbotが開発されればソーシャルの時代は終わるだろうか? いや、それはそれでbotも人間も同列に参加する新たなソーシャルネットワークが現れるだけだろうか。それはそれで楽しみであるけれど。


戻る