【非公開学習用】
Web 2.0:次世代ソフトウェアのデザインパターンとビジネスモデル

 by Tim O'Reilly 

http://japan.cnet.com/column/web20/story/0,2000055933,20090039,00.htm?deqwas_inflow=relation

http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html

 2001年のドットコムバブルの崩壊は、ウェブにとって、ひとつの転換点とな った。「ウェブは誇大に宣伝されていた」と多くの人が結論を下したが、バブ ルとその後の淘汰はあらゆる技術革命に共通する特徴であるように思われる。 一般に、淘汰は新興技術がそれまでの主役に取って代わる段階に到達したこと を示している。見かけ倒しの企業は駆逐され、本物の実力を備えた企業が大き な成功を収める。そして、両者の違いが理解されるようになる。

 「Web 2.0」という概念は、O'ReillyとMediaLive Internationalによるブレ インストーミングから生まれた。ウェブのパイオニアであり、現在はO' Reillyでバイスプレジデントを務めるDale Doughertyは、ウェブは「崩壊」し たどころか、かつてないほど重要な存在となっており、刺激的なアプリケーシ ョンやサイトは、驚くほど着実に生まれていると指摘した。また、バブル崩壊 を生き延びた企業には、いくつかの共通点があるように思われた。ドットコム の崩壊によって、ウェブは確かにある種の転換点を迎えたのではないか。だと すれば、「Web 2.0」について議論することには意味があるのではないか。こ の考えをもとに、われわれはWeb 2.0カンファレンスの開催を決意した。

 それからわずか1年半の間に、「Web 2.0」という言葉はすっかり根を下ろし た。この言葉をGoogleで検索すると、950万件以上のヒットがある。しかし、 Web 2.0が意味するものについては、いまだに深刻な意見の相違が見られる。 これを口先だけの無意味なマーケティング用語だと批判する者もいれば、新た な社会通念と見なす者もいる。

 この論文の目的は、Web 2.0という言葉でわれわれが何を意味しているのか を明確にすることである。

 最初のブレインストーミングでは、具体例を挙げることで、Web 2.0のイメ ージを固めていった。

 この他にも、さまざまな例が挙がった。では、われわれは何をもって、ある アプリケーションまたはアプローチが「Web 1.0」と「Web 2.0」のどちらかに 属すると判断したのだろうか(この点を明らかにすることは急務となっている。 Web 2.0というミームはすっかり広まってしまい、この言葉の真の意味を理解 せずに、単なるマーケティング用語として乱用する企業が増えているからだ。 しかも、こうした流行語好きの新興企業の多くがWeb 2.0とは到底呼べないの に対し、われわれがWeb 2.0の例として名前を挙げたNapsterやBitTorrentは、 厳密にはウェブアプリケーションですらない!)。そこで、われわれはWeb 1. 0の成功事例や、新たに登場した興味深いアプリケーションに注目することで、 Web 2.0の原則を導き出すことにした。

1. プラットフォームとしてのウェブ

 多くの重要な概念と同様に、Web 2.0も明確な輪郭は持たず、その他のもの を引きつけるコアとして存在する。下記はWeb 2.0を図で示したものだ。これ はWeb 2.0の原則と実際の手法をまとめたもので、ちょうど太陽系のように、 これらの原則の一部またはすべてを体現しているサイトが、さまざまな距離で コアと結びついていることが分かる。

 この図はO'Reilly Mediaの「FOO Camp」カンファレンスで行われたブレイン ストーミングセッションで作成されたWeb 2.0の「ミームマップ」である。ス ケッチレベルのものだが、Web 2.0のコアからさまざまなアイディアが生まれ ていることが分かるだろう。

 2004年10月に開催された第1回Web 2.0カンファレンスの開会講演で、John Battelleと私はこれらの原則の一部を紹介した。第1の原則は、「プラットフ ォームとしてのウェブ」だった。しかし、これはWeb 1.0の寵児で、 Microsoftとの激闘の末に敗れたNetscapeが掲げたスローガンでもあった。ま た、冒頭でWeb 1.0の例として名前を挙げたDoubleClickとAkamaiも、ウェブを プラットフォームとして扱った先駆的な企業だった。広告サービスを「ウェブ サービス」と考える人は少ないもしれないが、広告サービスは広範囲に配備さ れた初のウェブサービス--最近の用語を使えば「マッシュアップ」だった。す べてのバナー広告は、2つのウェブサイトがシームレスに協力し、統合された ページをユーザーのコンピュータに表示するという形で実現する。Akamaiもネ ットワークをプラットフォームとして扱う企業のひとつだ。同社はスタックの さらに深い部分で、ユーザーを意識させることなく、帯域幅の混雑を解消する ためのキャッシングとコンテンツ配信ネットワークを構築している。

 それにも関わらず、この2つの先駆的企業とWeb 2.0企業の間には明確な違い がある。後の参入者たちは、新しいプラットフォームをより深く理解すること で、同じ問題に対して、より効果的なソリューションを提供した。 DoubleClickとAkamaiはWeb 2.0の先駆者だったが、Web 2.0のデザインパター ンを取り入れれば、さらに多くの可能性を実現することができる。

 ここでは3つの事例を掘り下げ、Web 1.0とWeb 2.0の本質的な違いを浮き彫 りにしていきたい。

Netscape 対 Google

 NetscapeがWeb 1.0の旗手だったとすれば、GoogleがWeb 2.0の旗手であるこ とに異論の余地はないだろう。両社のIPOは、それぞれの時代を象徴する出来 事でもあった。まずは両社とそのポジションの違いを比べていこう。

 Netscapeは古いソフトウェアパラダイムの観点から、「プラットフォームと してのウェブ」を構想した。Netscapeの最も重要な製品はウェブブラウザとデ スクトップアプリケーションだった。同社はブラウザ市場での優位を利用して、 高額なサーバ製品の市場を確立しようとした。同社はコンテンツとアプリケー ションをブラウザに表示するための標準を支配していたので、理屈の上では、 MicrosoftがPC市場で享受しているのと同じ市場支配力を手に入れることがで きるはずだった。「馬なしで走る乗り物」という表現が、馬車に親しんできた 人々に自動車を身近なものと感じさせたように、Netscapeはデスクトップに代 わるものとして「ウェブトップ」を推進した。このウェブトップにNetscapeサ ーバを購入した企業が配信する更新情報やアプレットを載せる、というのが Netscapeの計画だった。

 しかし、ウェブブラウザとウェブサーバはコモディティ化し、価値は「スタ ックの上流」、すなわちウェブプラットフォーム上で提供されるサービスに移 ってしまった。

 Netscapeと対照的に、Googleはネイティブのウェブアプリケーションとして 誕生した。Googleはソフトウェアを販売したことも、パッケージソフトウェア を開発したこともない。Googleはサービスを提供し、顧客は直接的または間接 的に、サービスに対する使用料を支払う。Googleには過去のソフトウェア業界 を象徴するようなものは何もない。ソフトウェアのリリース計画はなく、改善 は継続的に行われる。ライセンス供与もなければ、販売もなく、使用量がある だけだ。顧客の環境に合わせて、ソフトウェアをさまざまなプラットフォーム に移植する必要もない。大量のコモディティPCを使って、きわめて拡張性の高 いシステムを構築し、門外不出のカスタムアプリケーションとユーティリティ を、オープンソースOSの上で走らせるだけでよい。

 Googleに必要なのは、Netscapeがまったく必要としなかった能力である。そ れはデータベース管理だ。Googleは単なるソフトウェアツールの寄せ集めでは なく、非常に特殊なデータベースである。データがなければ、ツールは役に立 たないが、ソフトウェアがなければ、データを管理することはできない。Web 1.0時代に重宝されたソフトウェアライセンスやAPI管理といった手法は、同社 のビジネスモデルにはあてはまらない。Googleはソフトウェアを配布する必要 はなく、それが適切に機能するようにすればよいからだ。実際、データを収集 し、管理する能力がなければ、このソフトウェアは何の役にも立たない。 ソフトウェアの価値は、そのソフトウェアが管理するデータの規模とダイナミ ズムに比例する。

 Googleのサービスは、大量のインターネットサーバで構成されたシステムを 通して提供されるが、Googleのサービスはサーバではない。ユーザーはブラウ ザを通してGoogleのサービスを利用するが、Googleのサービスはブラウザでは ない。Googleの基幹事業は検索サービスだが、同社は検索結果に表示されるコ ンテンツすら所有していない。通話が発信者と受信者の電話機だけでなく、そ の間のネットワークで起きるように、Googleのサービスはブラウザ、検索エン ジン、そして目的のコンテンツが保存されているサーバの間で生じ、Googleは ユーザーとオンラインでの経験を結び、仲介する役割を果たす。

 NetscapeとGoogleはどちらもソフトウェア企業と呼ぶことができるが、 NetscapeがLotus、Microsoft、Oracle、SAPといった1980年代のソフトウェア 革命から生まれた企業と同じソフトウェアの世界に属していたのに対し、 GoogleはeBay、Amazon、Napster、そしてもちろんDoubleClick、Akamaiといっ たインターネットアプリケーション企業と同じグループに属している。

DoubleClick 対 Overture/AdSense

 Googleと同じように、DoubleClickもインターネット時代の申し子である。 DoubleClickはサービスとしてソフトウェアの力を利用し、データ管理を中核 能力(コアコンピタンス)とする。そして前述の通り、同社は「ウェブサービ ス」という呼称が登場するはるか前から、ウェブサービスを提供してきた先駆 的企業でもあった。しかし、同社のビジネスはそのビジネスモデルによって制 限を受けていた。DoubleClickのビジネスは90年代の概念(「ウェブとはパブ リッシングであり、参加ではない」「ウェブを支配しているのは消費者ではな く、広告主である」「規模が重要である/インターネットはMediaMetrixなど のウェブ広告調査会社が決定する上位のウェブサイトによって独占されつつあ る」等)に立脚していたからだ。

 DoubleClickは自社のウェブサイトで、同社のソフトウェアが「2000社以上 に成功裏に導入」されたと誇らしげに宣言している。それに対して、Yahoo! Search Marketing(旧Overture)とGoogleのAdSenseはそれぞれ数十万の広告 主に広告サービスをすでに提供している。

 OvertureとGoogleが成功したのは、Chris Andersonが「ロングテール」と呼 んだもの--すなわち、ウェブの過半数を占めている小さなサイトが、総体とし て大きな力を生み出すことを両社が理解していたからにほかならない。 DoubleClickのサービスは正式の販売契約を通して提供されるため、市場は数 千の大規模なウェブサイトに限定される。これに対して、OvertureとGoogleは、 ほぼすべてのウェブページに広告を掲示する方法を見つけ出した。しかも、両 社はバナー広告やポップアップといったパブリッシャーや広告代理店が好む広 告形態ではなく、控えめで、文脈に沿った、消費者の立場に立ったテキスト広 告を選んだ。

Web 2.0の教訓:ユーザーセルフサービスとアルゴリズムによるデータ管理を 導入し、ウェブ全体――中心部だけでなく周辺部、頭だけでなく長い尾(ロン グテール)の先にもサービスを提供する。

 当然、こうした態度はその他のWeb 2.0 の成功事例にも見て取ることができ る。eBayは仲介プロセスを自動化することで、個人がわずか数ドルの取引を不 定期に行うことを可能にした。Napster(法的理由から活動を停止してしまっ たが)は楽曲の集中データベースを構築する代わりに、ダウンロードを行うす べての人のPCがサーバとなり、その結果として、ネットワークが拡大するよう なシステムを構築し、ネットワークを広げていった。

Akamai 対 BitTorrent

 DoubleClickと同様に、Akamaiのビジネスも尾ではなく頭に、周辺部ではな く中心部に照準を当てている。Akamaiは中心部の人気サイトへのアクセスを円 滑にすることで、ウェブの周辺部にいる個人に利益をもたらしているが、収益 は中心部のサイトから得ている。

 一方、BitTorrentはP2Pの他の先駆者たちと同様に、進歩的なアプローチで インターネットの分散化に取り組んでいる。すべてのクライアントはサーバの 役割を果たし、ファイルは細かく分断され、複数の場所から供給される。帯域 幅とデータはダウンロードを行う人々のネットワークを通して、ユーザー自身 が意識することなく、その他のユーザーに提供される。ファイルの人気が高い ほど、ダウンロードの速度も速くなる。人気のあるファイルのほうが、帯域幅 とファイルの断片を提供するユーザーの数も多いからだ。

 BitTorrentはWeb 2.0の重要な原則を体現している。それは、利用者が増 えれば、サービスは自然に改善されるというものだ。Akamaiがサーバを増 やすことによってしかサービスを改善することができないのに対し、 BitTorrentの場合は消費者がこぞってリソースを持ち寄る。同社のサービスに は「参加のアーキテクチャ」、すなわち協力の倫理が織り込まれており、サー ビスは基本的に情報の仲介役として、ウェブの周辺部をつなぎ、ユーザー自身 の力を利用するために存在している。

---

プラットフォームは常にアプリケーションを凌駕する

 Microsoftはプラットフォームを切り札に、あらゆる競争に勝利してきた。 過去の競争相手の中には、高い市場シェアを誇ったアプリケーションもある。 同社はWindowsを利用して、Lotus 1-2-3をExcelに、WordPerfectをWordに、そ してNetscape NavigatorをInternet Explorerに置き換えていった。

 しかし、今度の戦いはプラットフォームとアプリケーションではなく、まっ たく異なるビジネスモデルを持ったプラットフォーム同士の間で行われている。 一方は、巨大なインストールベースと緊密に統合されたOSやAPIを武器に、プ ログラミングパラダイムを支配しているソフトウェアプロバイダー、もう一方 は共通のプロトコル、オープンな標準、そして協力協定によって結ばれた、所 有者を持たないシステムである。

 WindowsはソフトウェアAPIによるプロプライエタリな支配の最たるものだ。 NetscapeはMicrosoftが他のライバルに対して使ったのと同じ方法で、 Microsoftから支配権を奪い取ろうとしたが、その試みは失敗に終わった。一 方、ウェブのオープンな標準にこだわり続けたApacheは成功を収めた。現在の 戦いは、プラットフォーム対アプリケーションという不釣り合いなものではな く、プラットフォーム対プラットフォームという対等なものだ。この戦いでは、 どちらのプラットフォームが--さらに重要なことには、どちらのアーキテクチ ャまたはビジネスモデルが今後のチャンスに適しているかが重要になる。

 PC時代の初期には、Windowsは問題を解決するためのすばらしいソリューシ ョンだった。Windowsはアプリケーション開発企業に公平な土俵を提供し、業 界を苦しめていた多くの問題を解決した。しかし、1社が管理する画一的なア プローチは、もはやソリューションではなく、ひとつの問題にすぎない。コミ ュニケーション志向のシステム(プラットフォームとしてのインターネットは 間違いなくそのひとつだ)は相互運用性を必要とする。すべてのインタラクシ ョンの両端を管理することができない限り、ソフトウェアAPIによってユーザ ーをロックインすることは難しい。

 プラットフォームを支配することで、アプリケーションのゲインをロックイ ンしようとしているWeb 2.0企業は、必然的に、プラットフォームを切り札に することはなくなるだろう。

 ロックインや競争優位を獲得する機会はない、といっているわけではない。 しかし、ソフトウェアAPIやプロトコルを支配することで、そうした機会を手 に入れることは難しくなるだろう。新しいゲームが始まっている。Web 2.0時 代に成功を収めるのは、PCソフトウェア時代のルールに逆戻りしようとする企 業ではなく、新しいゲームのルールを理解している企業である。

---

2. 集合知の利用

 Web 1.0時代に誕生し、Web 2.0時代にも繁栄を謳歌している大企業は、ウェ ブの力を使って集合知を利用するというWeb 2.0の原則を実践している。

  • ウェブの基盤はハイパーリンクである。ユーザーが追加した新しいコンテ ンツやサイトは、その他のユーザーに発見され、リンクを張られることによっ て、ウェブの構造に組み込まれる。脳のシナプスのように、これらのつながり は反復と刺激によって強化され、ウェブユーザー全体の活動に応じて、有機的 に成長していく。
  • インターネットの最初の目覚ましい成功例となったYahoo!は、カタログ、 あるいはリンクのディレクトリとして登場した。Yahoo!は何千人、さらには何 百万人ものウェブユーザーが作成したウェブページを集めていった。その後、 Yahoo!は事業を拡大し、さまざまなコンテンツを手がけるようになったが、ネ ットユーザー全体の活動にアクセスするためのポータルという役割は、今も同 社の本質的な価値となっている。
  • 検索分野におけるGoogleのブレークスルーは「PageRank」だった。 PageRankは文書の特徴だけでなく、ウェブのリンク構造を使って、よりよい検 索結果を導き出す手法である。この技術によって、Googleは瞬く間に、誰もが 認める検索市場のリーダーとなった。
  • eBayの商品はユーザー活動そのものだ。ウェブと同じように、eBayもユー ザー活動に応じて有機的に成長する。同社の役割は、ユーザーの活動のお膳立 てをすることにある。また、競合企業と比べた場合のeBayの強みは、買い手と 売り手がクリティカルマスに達していることにある。このため、同様のサービ スを提供する企業が現れても、そのサービスはeBayよりもはるかに見劣りがす ることになる。
  • AmazonはBarnesandnoble.comなどの競合企業と同じ製品を扱っている。ど の企業もベンダーから同じ製品情報、表紙画像、目次情報などを得ているが、 Amazonはユーザーを取り組む仕組みを構築した。Amazonには他社の何倍ものユ ーザーレビューが掲載されており、ほぼすべてのページで、あの手この手でユ ーザーの参加を促している。さらに重要なのは、同社が検索結果を改善するた めにユーザーの活動を利用していることだ。Barnesandnoble.comで検索すると、 通常は同社の製品か、スポンサーの製品が表示されるのに対し、Amazonでは常 に「最も人気のある」製品が表示されるようになっている。このデータは売上 だけでなく、その他の要素--Amazonに詳しい人々が製品周辺の「フロー」と呼 ぶものに基づいて、リアルタイムに算出される。他社の何倍ものユーザー参加 が行われていることを考えると、Amazonが売上でも競合他社を上回っているこ とは驚くに値しない。  

ウェブでは現在、この原則を理解し、さらに発展させている革新的な企業が 頭角を現しつつある。

  • オンライン百科事典の「Wikipedia」は、誰でも記事を投稿し、編集する ことができるという思いもよらないアイディアに基づいている。Wikipediaは 信頼に立脚した進歩的な実験であり、「目玉の数さえ十分あれば、どんなバグ も深刻ではない」というEric Raymondの格言(もともとはオープンソースソフ トウェアの文脈で語られたもの)をコンテンツ作成に適用している。 Wikipediaはすでにトップ100のウェブサイトに入っているが、多くの人がトッ プ10入りは時間の問題だと見ている。コンテンツ作成の世界では大きな変化が 起きているのだ!
  • 最近、大きな注目を集めている「del.icio.us」や「Flickr」のようなサ イトは、「folksonomy」(分類学を意味する「taxonomy」の対語)と呼ばれる 概念の先駆者である。Folksonomyとは、大勢のユーザーが自由なキーワード( 一般に「タグ」と呼ばれる)をデータに付加することによって、データをゆる やかに分類していく手法である。従来の厳密な分類方法と異なり、タグを利用 すれば、脳と同じような、複合的で重複した関連づけを行うことができる。た とえば、Flickrに投稿された子犬の写真に「子犬」と「かわいい」というタグ を付ければ、その他のユーザーはそのどちらでも、自分の思考に合った方のキ ーワードで、この写真を見つけることができる。
  • 「Cloudmark」のような協調的なスパムフィルタリング製品は、多数のメ ール利用者の判断をもとに、あるメールがスパムか、そうでないかを判定する。 判定の精度は、メッセージのみを分析する従来の方法よりも高い。
  • インターネット時代の成功企業は自社の製品を広告しない--これは真理で ある。こうした企業の製品は「バイラルマーケティング」、つまりユーザーの 口コミによって広まる。宣伝を広告だけに依存しているようなサイトまたは製 品は、Web 2.0ではないと判断して間違いないだろう。
  • オープンソースの協同的な開発手法は、多くのウェブインフラ(Linux、 Apache、MySQL、ほとんどのウェブサーバに含まれるPerl、PHP、Pythonのコー ドなど)でも採用されている。オープンソースそのものも、インターネットが 可能にした集合知の一例だ。「SourceForge.net」には10万件を超えるオープ ンソースソフトウェアプロジェクトが登録されている。このサイトには誰でも プロジェクトを追加することができ、誰でもコードをダウンロードして、それ を利用することができる。ユーザーが利用することによって、新しいプロジェ クトは周辺部から中心部に移動する。これはほぼ100%をバイラルマーケティ ングに依存した、有機的なソフトウェアの採用プロセスである。

教訓:Web 2.0時代には、ユーザーの貢献がもたらすネットワーク効果が市場 優位を獲得する鍵となる。

---

参加のアーキテクチャ

 いくつかのシステムは、最初からユーザーの参加を促すように設計されてい る。Dan Bricklinは論文「The Cornucopia of the Commons」の中で、大規模 なデータベースを構築する方法を3つ挙げた。ひとつはYahoo!に代表されるよ うに、スタッフを雇って、データベースを構築する方法である。2つ目は、こ の作業をボランティアにやってもらうもので、オープンソースコミュニティに ヒントを得ている。オープンソース版のYahooともいえるOpen Directory Projectは、その1例といえるだろう。そして第3の方法を提示したのが Napsterである。Napsterはダウンロードされたすべての楽曲が自動的に供給リ ストに加わるような仕組みを構築した。この結果、すべてのユーザーは自動的 に共有データベースの価値の向上に貢献することになった。このアプローチは その後のすべてのP2Pファイル共有サービスに受け継がれている。

 Web 2.0時代の重要な教訓のひとつは、ユーザーが価値を付加するというも のである。しかし、自分の時間を割いてまで、企業のアプリケーションの価値 を高めようというユーザーは少ない。そこで、Web 2.0企業はユーザーがア プリケーションを利用することによって、副次的にユーザーのデータを収集し、 アプリケーションの価値が高まる仕組みを構築した。前述の通り、Web 2. 0企業のシステムは、利用者が増えるほど、改善されるようになっている。

 Mitch Kaporはかつて、「アーキテクチャとは政治である」と述べた。参加 はNapsterの本質であり、基本構造の一部となっている。

 オープンソースソフトウェアの成功には、よくいわれるようなボランティア 精神よりも、参加のアーキテクチャが寄与しているのかもしれない。インター ネット、ワールドワイドウェブ、そしてLinux、Apache、Perlなどのオープン ソースソフトウェアには、このようなアーキテクチャが採用されており、個々 のユーザーが「利己的な」興味を追求することによって、自然と全体の価値も 高まるようになっている。これらのプロジェクトはみな、小さなコアと、明確 に定義された拡張メカニズムを持ち、仕様に沿ったものであれば、誰でもコン ポーネントを追加することができる。これはPerlの作者であるLarry Wallが「 タマネギ」になぞらえて説明した、外側の層を成長させていくアプローチだ。 別の言い方をすれば、これらの技術は「設計通り」に、ネットワーク効果を生 み出しているのである。

 これらのプロジェクトは、参加のアーキテクチャに適したものだったのかも しれない。しかし、Amazonが実証している通り、一貫した努力をもってすれば (そしてアソシエイトプログラムなどの経済的インセンティブを利用すれば)、 このアーキテクチャとはまったく縁がないように思われるシステムにも、参加 のアーキテクチャを適用することができる。

ブログと群衆の英知

 Web 2.0時代の特徴として、最もよく語られるのがブログの台頭である。個 人ホームページはウェブの初期から存在したし、日記や個人の意見をつづった コラムは、そのはるか前からあった。では、ブログが今、これほど騒がれてい るのはなぜなのか。

 ブログの基本は、日記の体裁をとった個人ホームページである。しかし、 Rich Skrentaが指摘している通り、ブログが時系列の構造を取っていることが、 「ささいな違いに見えるが、従来とはまったく異なる配信、広告、そしてバリ ューチェーンを生み出している」

 ブログを特別なものにしている要因のひとつは、RSSと呼ばれる技術である。 RSSはウェブの基本構造に重要な進化をもたらした。ウェブの初期のハッカー たちは、CGIを使うことで、データベースと連動したウェブサイトを構築でき ることを発見した。RSSはそのとき以来の重要な進化である。RSSを利用すれば、 ページにリンクを張るだけでなく、そのページを講読し、ページが更新される たびに通知を受け取ることができる。Skrentaはこれを「インクリメンタル・ ウェブ」と呼ぶ。「ライブウェブ」と呼ばれることもある。

 確かに、「動的なウェブサイト」(データベースと連動し、動的にコンテン ツを生成するサイト)が静的なページに取って代わったのは十数年も前のこと だ。ライブウェブの新しいところは、ページだけでなく、リンクも動的である 点にある。ブログにリンクを張るということは、変わり続けるページにリンク を張ることに等しい。個々の記事にリンクを張るときは、「permalink」を利 用する。ブログに更新があった場合は通知が届く。このように、RSSフィード はブックマークしたり個々のページにリンクを張るよりも、はるかに強いつな がりを生み出す。

 また、RSSはウェブページを見る方法がウェブブラウザだけではないことを 意味している。RSSアグリゲーターの中には、Bloglinesのようにウェブベース のものもあるが、それ以外はデスクトップクライアントだ。頻繁に更新される コンテンツを携帯機器で講読できるようにしたものもある。

 現在のRSSは、ブログの記事だけでなく、株価、天気情報、写真など、あら ゆる種類のデータの更新を通知するために利用されている。これはRSSの原点 に回帰することでもある。RSSは1997年に、ブログの更新情報を発信するため に利用されていたDave Winerの「Really Simple Syndication」技術と、 Netscapeの「Rich Site Summary」が合流することによって誕生した。Rich Site Summaryは、Netscapeのポータルサイトをユーザーがカスタマイズし、更 新情報を定期的に取り込むための技術だったが、Netscapeはこの技術に関心を 失い、開発はブログのパイオニアであるUserlandに引き継がれた(Userland はWinerが立ち上げた企業)。現在のRSS関連アプリケーションには両方の技術 の面影を見ることができる。

 しかし、ブログを一般的なウェブページと異なるものにしているのはRSSだ けではない。Tom Coatesはpermalinkの重要性について、次のように述べてい る。

 「……ささいな機能のように思えるかもしれないが、permalinkの登場に よって、ブログは簡単に情報を発信できるツールから、コミュニティが交錯し、 会話が生まれる場所に変わった。permalinkによって初めて、比較的簡単に他 者のサイトの特定の記事について意見を述べ、サイトの所有者と話をすること が可能になった。議論が生まれ、チャットが始まった。その結果、友情が芽生 え、あるいはより強固なものとなった。permalinkはブログとブログを結びつ ける初めての、そして最も成功した試みとなった」(Coates)

 さまざまな形で、RSSとpermalinkの組み合わせはUsenetのNNTP(Network News Protocol)の機能の多くを、ウェブプロトコルであるHTTPに加えること になった。「ブロゴスフィア」は、初期のインターネットの社交場だった Usenetと掲示板のP2P版ということができるだろう。人々はお互いのサイトを 講読し、各ページのコメントに簡単にリンクを張ることができるだけでなく、 トラックバックと呼ばれる仕組みを使えば、他者が自分のページにリンクを張 ったことを知り、相互リンクを張ったり、コメントを返したりすることによっ て、それに反応することもできる。

 興味深いことに、双方向リンクはXanaduのような初期のハイパーテキストシ ステムが目指したものでもあった。ハイパーテキストの純粋主義者たちは、ト ラックバックを双方向リンクを実現するための一歩として歓迎した。しかし、 トラックバックは厳密には双方向のものではない。双方向リンクと同等の効果 を生みだす(可能性のある)対称的な一方向リンクである。この違いはわずか なものに思えるかもしれないが、実際には非常に大きい。たとえば、相手の承 認を得なければコネクションを構築することができない「Friendster」「 Orkut」「LinkedIn」といったソーシャルネットワーキングシステムは、ウェ ブほどの拡張性を持たない。写真共有サービスFlickrの共同創設者である Caterina Fakeが指摘した通り、双方向の注目は偶発的にしか起こらないので ある(このため、Flickrではユーザーがウォッチリストを作成し、どのユーザ ーもRSS経由で他のユーザーが更新する写真を見ることができるようにしてい る。RSSに登録した場合、相手にも通知が行くが、承認を得る必要はない)

 Web 2.0の本質が、集合知を利用して、ウェブを地球規模の脳に変えること だとすれば、ブロゴスフィアは絶え間ない脳内のおしゃべりを、すべてのユー ザーが聞いているようなものだ。これは脳の深い部分で、ほぼ無意識のうちに 行われている思考ではなく、むしろ意識的な思考に近い。そして、意識的な思 考と注目の結果、ブロゴスフィアは大きな影響力を持つようになった。

 検索エンジンは、的確な検索結果を導き出すためにリンク構造を利用してい る。このため、適切なタイミングで、大量のリンクを生み出すブロガーは、検 索結果の生成に重要な役割を果たすようになっている。また、ブログ・コミュ ニティはきわめて自己言及的であるため、ブロガーが他のブロガーに注目する ことで、ブロガーの存在感と力は増幅していく。しばしば「反響室」と批判さ れるブログは、増幅器でもあるのだ。

 もっとも、単なる増幅器であったなら、ブログはつまらないものになってい ただろう。しかし、Wikipediaが体現しているように、ブログでは集合知が一 種のフィルターの役割を果たしている。James Surioweckiが「群衆の英知」と 呼んだものが働き、PageRankが個々の文書を分析するよりも優れた検索結果を 生み出したように、ブロゴスフィアではユーザー全体の注目が、価値あるもの を選び出す。

 主流のメディアは特定のブログを競争相手と考えているかもしれないが、こ の競争の手ごわいところは、相手がブロゴスフィア全体である点にある。これ は単なるサイト間の競争ではなく、ビジネスモデル間の競争なのだ。Web 2.0 の世界は、Dan Gillmorが「個人メディア(we, the media)」と呼んだ世界で もある。この世界では、一握りの人々が奥まった部屋で物事を決めるのではな く、「かつてのオーディエンス」が何が重要かを決定する。

3. データは次世代の「インテル・インサイド」

 重要なインターネットアプリケーションには必ず、それを支える専門のデータベースがある。Googleのウェブクロール、Yahoo!のディレクトリ(とウェブクロール)、Amazonの製品データベース、eBayの製品/出品者データベース、MapQuestの地図データベース、Napsterの分散型楽曲データベースなどだ。昨年、Hal Varianは個人的な会話の中で、「SQLこそ、次のHTMLだ」と語った。データベース管理は、Web 2.0企業のコアコンピタンス(中核能力)でもある。このため、これらのアプリケーションは単にソフトウェアではなく、「 インフォウェア(infoware)」と呼ばれることもある。

 この事実は、ある重要な問いを投げかける。それは「そのデータを所有しているのは誰か」というものだ。

 インターネット時代には、データベースをコントロールすることによって市場を支配し、莫大な収益をあげた企業が少なくない。当初は政府の委託を受けて、Network Solutions(後にVerisignが買収)が独占したドメイン名登録事業は、インターネットにおける最初のドル箱事業となった。インターネット時代には、ソフトウェアAPIを支配することで、ビジネス上の優位を確保することははるかに難しくなると書いたが、重要なデータソースを支配した場合、優位を確保することはそう難しくない。そのデータソースが作成に莫大な資金を必要とするものだったり、ネットワーク効果によって、収益を拡大する見込みのあるものだったりする場合はなおさらだ。

 たとえば、MapQuest、maps.yahoo.com、maps.msn.com、maps.google.comなどが生成する地図には必ず「地図の著作権はNavTeq、TeleAtlasに帰属します」という文章が添えられている。最近登場した衛星画像サービスの場合は、「画像の著作権はDigital Globeに帰属します」と書かれている。これらの企業は莫大な資金を投じて、独自のデータベースを構築した(NavTeqは7億5000万ドルをかけて住所/経路情報データベースを構築したと伝えられている。Digital Globeは公的機関から供給される画像を補完するために、5億ドルをかけて自前の衛星を打ち上げた)。NavTeqに至っては、お馴染みの「インテル・インサイド」ロゴを模倣し、カーナビシステムを搭載した車に「NavTeq Onboard(NavTeq搭載車)」のマークを付けている。実際、これらのアプリケーションにとって、データは「インテル・インサイド」と呼ぶにふさわしい重要性を持っている。ソフトウェアインフラのほぼすべてをオープンソースソフトウェアやコモディティ化したソフトウェアでまかなっているシステムにとって、データは唯一のソースコンポーネントだからだ。

 現在、激しい競争が繰り広げられているウェブマッピング市場は、アプリケーションの核となるデータを所有することが、競争力を維持する上でいかに重要かを示している。ウェブマッピングというカテゴリは、1995年にMapQuestが作り出したものだ。MapQuestは先駆者だったが、Yahoo!、Microsoft、そして最近ではGoogleといった新規参入者の台頭を許した。これらの企業はMapQuestと同じデータの使用許諾を受けることで、同社と競合するアプリケーションをやすやすと構築することができた。

 それと対照的なのがAmazonである。Barnesandnoble.comなどの競合企業と同じように、Amazonのデータベースも当初はR.R. Bowkerが提供する「ISBN(国際標準図書番号)」をもとにしたものだった。しかし、MapQuestと異なり、AmazonはBowkerのデータに出版社から提供される表紙画像や目次、索引、サンプルなどのデータを追加することで、データベースを徹底的に拡張していった。さらに重要なのは、これらのデータにユーザーがコメントを加えることを可能にしたことである。10年たった今では、BowkerではなくAmazonが書誌情報の主要な情報源となっており、消費者だけでなく、学者や司書もAmazonのデータを参照している。また、Amazonは「ASIN」と呼ばれる独自の識別番号も導入した。ASINは書籍のISBNに相当するもので、Amazonが扱う書籍以外の商品を識別するために利用されている。事実上、Amazonはユーザーの供給するデータを「積極的に取り込み、独自に拡張(embrace and extend)」したのである。

 これと同じことを、MapQuestがしていたらどうなっていただろうか。ユーザーが同社の地図と経路情報にコメントを加え、幾重にも付加価値を加えることができるようにしていたら、同じ基礎データを手に入れるだけで、他社がこの市場に参入することはできなかっただろう。

 最近登場したGoogle Mapsは、アプリケーションベンダーとデータ供給者の競争をリアルタイムで観察できる場となっている。Googleの軽量なプログラミングモデルを利用して、サードパーティがさまざまな付加価値サービスを生み出しているが、これらのサービスはGoogle Mapsとインターネット上のさまざまなデータソースとを組み合わせたマッシュアップの形を取っている。Paul Rademacherの housingmaps.comは、Google MapsとCraigslistの賃貸アパート/売家情報を組み合わせたインタラクティブな住宅検索ツールだ。これはGoogle Mapsを利用したマッシュアップの傑出した例ということができる。

 今のところ、これらのマッシュアップの大半は、ハッカーによる斬新な試みの域を出ていないが、そのすぐ後ろでは企業家たちが列を成して、好機をうかがっている。少なくとも一部の開発者の間では、Googleはすでにデータソースの座をNavteqから奪い、最も人気のある仲介サービスとなっている。今後数年にわたって、データ供給者とアプリケーションベンダーの間では競争が繰り広げられることになるだろう。Web 2.0アプリケーションを開発するためには、特定のデータがきわめて重要な役割を果たすことを、双方が理解するようになるからである。

コアデータをめぐる争いはすでに始まっている。こうしたデータの例としては、位置情報、アイデンティティ(個人識別)情報、公共行事の日程、製品の識別番号、名前空間などがある。作成に多額の資金が必要となるデータを所有している企業は、そのデータの唯一の供給元として、インテル・インサイド型のビジネスを行うことができるだろう。そうでない場合は、最初にクリティカルマスのユーザーを確保し、そのデータをシステムサービスに転換することのできた企業が市場を制する。

 アイデンティティ情報の分野では、PayPal、Amazonの「1-click」、大勢のユーザーを持つコミュニケーションシステムなどが、ネットワーク規模のIDデータベースを構築する際のライバルとなるだろう(Googleは携帯電話番号をGmailのアカウント認証に用いる試みを始めた。これは電話システムを積極的に採用し、独自に拡張する一歩となるかもしれない)。一方、Sxipのような新興企業は「連携アイデンティティ(federated identity)」の可能性を模索している。Sxipが目指しているのは、「分散型1-click」のような仕組みを作り、Web 2.0型のシームレスなアイデンティティ・サブシステムを構築することだ。カレンダーの分野では、 EVDBがwiki型の参加のアーキテクチャを使って、世界最大の情報共有カレンダーを構築しようとしている。決定的な成功を収めた新興企業やアプローチはまだないが、こうした分野の標準とソリューションは、特定のデータを「インターネットOS」の信頼できるサブシステムに変えることによって、次世代アプリケーションの登場を可能にするものとなるだろう。

 データに関しては、プライバシーと著作権の問題にも言及しておかなければならない。初期のウェブアプリケーションは、著作権をあまり厳密には行使してこなかった。たとえば、Amazonはサイトに投稿されるレビューの権利が同社に帰属すると主張しているが、その権利を実際に行使しなければ、ユーザーは同じレビューを別のサイトに投稿するかもしれない。しかし、企業はデータ管理が競争優位の源泉となることを認識しつつあるので、今後はデータ管理がこれまでよりも厳しく行われることになるかもしれない。

 プロプライエタリなソフトウェアの興隆が、 フリーソフトウェア・ムーブメントをもたらしたように、プロプライエタリなデータベースの興隆によって、今後10年以内にフリーデータ運動が起きることになるだろう。反動の兆しはすでに現れている。WikipediaやCreative Commonsなどのオープンデータプロジェクト、サイトの表示をユーザーがカスタマイズできるGreasemonkeyなどのソフトウェアプロジェクトはその一例だ。

4. ソフトウェア・リリースサイクルの終焉

 「Google対Netscape」の箇所でも述べた通り、インターネット時代のソフトウェアの決定的な特徴のひとつは、それがモノではなく、サービスとして提供される点にある。この事実は、企業のビジネスモデルに数々の根本的な変化をもたらす。

  1. オペレーションそのものがコアコンピタンスとなる。 GoogleやYahoo!の製品開発能力は、各社のオペレーション能力に比例するようになる。モノとしてのソフトウェアと、サービスとしてのソフトウェアはまったく異質のものだ。サービスとして提供されるソフトウェアは、日々の保守なしには正しく機能しない。Googleのサービスが正しく機能するためには、同社は絶えずウェブを巡回し、インデックスを更新し、リンクスパムをはじめ、検索結果に影響を及ぼそうとするあらゆる試みを排除し、次々と打ち込まれる数億の検索ワードに休むことなく動的に対処し、なおかつ、文脈に合った広告を表示していかなければならない。

     Googleはシステム管理、ネットワーク、そして負荷分散に関する技術を、おそらくは検索アルゴリズムそのものよりも厳重に保護している。これは競合他社に対する同社のコスト優位性が、主にこれらのプロセスを自動化したことによってもたらされているからだ。

     Web 2.0企業では、Perl、Python、PHP、そして最近ではRubyといったスクリプト言語が、非常に大きな役割を果たしている。これにも相応の理由がある。よく知られている通り、Sunの初代ウェブマスターだったHassan Schroederは、Perlを「インターネットのダクトテープ」(どの家庭にもひとつはあるような粘着テープ)と呼んだ。ソフトウェアがモノだった時代の技術者からは、スクリプト言語と呼ばれて見下されることの多かった動的な言語は、今ではシステム管理者、ネットワーク管理者、そして絶え間ない変更を必要とする動的なシステムを構築しているアプリケーション開発者からも支持されている。

  2. オープンソースの開発慣行にならい、ユーザーを共同開発者として扱う(これはオープンソースライセンスに基づいてリリースされる可能性が低いソフトウェアにも当てはまる)。「早期に、かつ頻繁にリリースする」というオープンソースの格言は、「永久のベータ版」という、さらに進歩的な概念へと姿を変えた。ソフトウェアはオープンな環境で開発され、月ごと、週ごと、時には日ごとに新機能が加えられる。Gmail、Google Maps、Flickr、del.icio.usといったサービスのロゴから、何年間も「ベータ」の文字が外れなかったとしても驚くには当たらない。

     したがって、ユーザーの行動をリアルタイムで監視し、どの新機能が、どのように利用されているかを観察することも、Web 2.0企業の重要なコアコンピタンスとなるだろう。ある大手オンラインサービスのウェブ開発者は次のように述べている。「毎日、2つか3つの新機能をサイトのどこかに追加するようにしている。ユーザーが使わないようなら、その機能は取ってしまう。ユーザーの気に入るようなら、その機能をサイト全体に広げる」

     先頃、Flickrの主任開発者であるCal Hendersonは、Flickrが30分ごとに新しいビルドをインストールしていることを明らかにした。これは従来とはまったく異なる開発モデルだ!すべてのウェブアプリケーションがFlickrほど極端な方法で開発されているわけではないにしても、ほとんどのウェブアプリケーションはPC時代やクライアント・サーバ時代とはまったく異なるサイクルで開発されている。先日、MicrosoftにGoogleは倒せないという記事が米ZDNetに掲載されたが、その根拠はここにある。「Microsoftのビジネスモデルは、すべてのユーザーが2、3年ごとにコンピューティング環境をアップグレードすることを前提としている。それに対して、Googleのビジネスモデルはすべてのユーザーが毎日、自分のコンピューティング環境を使って、新しい情報を探すことを前提としている」

 ライバルから学び、最終的には打ち負かす能力をMicrosoftが十二分に備えていることは、過去の歴史が証明している通りだ。しかし、今度の競争に勝つためには、Microsoft(ひいては既存のすべてのソフトウェア企業)は、これまでとは本質的に異なる企業となる必要がある。一方、純粋なWeb 2.0企業は脱ぎ捨てるべき古いパターン(とそれに呼応したビジネスモデルと収益源)を持たないため、既存の企業よりも有利なスタートラインに立っている。

---

Web 2.0的な投資方針

 ベンチャーキャピタリストのPaul Kedroskyはこう書いている。「重要なのは、自分が世間の共通認識に違和感を持っている部分で、実行可能な投資を見つけることだ」。興味深いことに、Web 2.0を実践している企業は、さまざまな側面で、世間の共通認識に反した戦略を取っている。たとえば、誰もがデータの保護にやっきになっていたときに、FlickrとNapsterはデータを公開することを選んだ。これらのサイトは、ただ単に既存の概念に反対しているわけではない(たとえば、バブル的なビジネスモデルの批判など)。そうではなく、世間の共通認識と、自分たちの認識の「ずれ」から、新しいものを創り出そうとしているのだ。それはFlickrの場合はコミュニティであり、Napsterの場合は膨大な楽曲コレクションだった。

 別のいい方をすれば、成功した企業は巨額の投資を必要とするものを諦める代わりに、かつては高価だった価値あるものを、無料で提供することにこだわった。たとえば、Wikipediaは編集プロセスを集中管理することを諦めた代わりに、スピードと幅と手に入れた。Napsterは「カタログ」の概念(音楽会社が販売しているすべての楽曲)を諦めた代わりに、広範なネットワークを手に入れた。Amazonは実店舗を持つことを諦めた代わりに、世界中にサービスを提供できるようになった。Googleは大企業を顧客にすることを(当初は)諦めた代わりに、放置されてきた残る80%の中小企業を手に入れた。ここにはきわめて合気道的な力(敵の力を利用して敵を倒すこと)が働いている。「その通り、世界中の誰もがこの記事を更新することができる。一部の人にとっては、これは実に厄介なことだろう」(Nat Torkington)

---

5. 軽量なプログラミングモデル

 「ウェブサービス」が流行り言葉になると、大企業はわれ先に複雑なウェブサービススタックを構築し、分散アプリケーションを実現するための安定したプログラミング環境を提供しようとした。

 しかし、ウェブがハイパーテキスト理論の大半を無視し、理論上の正しさよりも、シンプルな実用主義を重んじたことによって成功したように、RSSはその単純さによって、おそらくは最も広範囲に配備されたウェブサービスとなった。それに対して、企業が構築した複雑なウェブサービススタックは、まだ限定的にしか利用されていない。

 同様に、Amazonのウェブサービスも2つの方法で提供されている。ひとつは、SOAP(Simple Object Access Protocol)を採用した、厳密な構成を持つウェブサービススタック、もうひとつはHTTP経由でHTMLデータを提供する単純で軽量なアプローチだ。後者の方法はREST(Representational State Transfer)と呼ばれることもある。複雑なB2B接続(AmazonとToysRUsなどの小売りパートナーを結ぶ接続など)にはSOAPスタックが利用されているが、Amazonのウェブサービスの95%は、軽量なRESTインターフェースを通して利用されているという。

 単純さを追求する傾向は、その他の「有機的」なウェブサービスにも見受けられる。先日発表されたGoogle Mapsはその好例だ。Google MapsはAJAX(JavascriptとXML)を利用した単純なインターフェースを採用しているため、ハッカーたちはすぐさまそれを解読し、データをリミックスして、新しいサービスを作り上げた。

 地図関連のウェブサービスは、すでにMapQuest、MicrosoftのMapPoint、そしてESRIなどのGISベンダーからも提供されていた。それにも関わらず、Google Mapsが熱狂的に受け入れられたのは、これが非常に単純なサービスだったからにほかならない。ベンダーが提供するウェブサービスを利用して、新しい試みを行うためには、そのベンダーと正式な契約を結ぶ必要があったのに対し、Google Mapsはユーザーがデータを自由に利用できるようにした。このため、ハッカーたちはGoogle Mapsのデータを再利用して、すぐに創造的な試みを行うことができた。

 この事例は、次のような重要な教訓を示している。

  1. 軽量なプログラミングモデルを採用し、システムをゆるやかに統合できるようにする。 企業が提供する複雑なウェブサービススタックは、システムを強固に結びつけるように設計されている。このような方法が求められることも多いが、興味深いアプリケーションの多くは、システムをゆるやかに統合するだけで実現することができる。そのつながりは、ごくかすかなもので構わない。Web 2.0の考え方は、従来のITの考え方とはまったく異なるのだ!
  2. 調整(coordination)ではなく、連携(syndication)する。RSSやRESTサービスのような単純なウェブサービスは、内部のデータと外部のデータの橋渡し役に徹し、外部でデータがどのように利用されるかには干渉していない。 end-to-endの原則として知られるこの考え方は、インターネットそのものの基本原則でもある。
  3. ハッキング可能でリミックス可能なデザインを心がける。オリジナルのウェブ、RSS、そしてAJAXのようなシステムには、再利用の障壁がきわめて低いという共通点がある。有益なソフトウェアの多くはオープンソースであり、そうでない場合も、知的財産保護を目的とした障壁はほとんど設けられていない。ウェブブラウザの「ソースの表示」機能を使えば、誰でも他のユーザーのウェブページをコピーすることができる。RSSはユーザーが情報提供者の都合に合わせるのではなく、自分の欲しい情報を、好きなときに見ることを可能にした。最も成功したウェブサービスは、開発者が想像もしなかった方向に、サービスを容易に転換することができたものだった。「すべての権利は留保されています(all rights reserved)」という、一般的な著作権表示に代わるものとして、Creative Commonsが提案し、広く知られるようになった「一部権利保有(some rights reserved)」という言葉は、この原則を実践する上での有益な指針となるだろう。

組み合わせによる革新

 軽量なプログラミングとつながりには、軽量なビジネスモデルが伴うものだ。Web 2.0の考え方は、再利用に適している。たとえば、housingmaps.comのような新サービスは、単に既存のサービスを組み合わせることで実現したものだ。Housingmaps.comは(まだ)ビジネスモデルを持っていないが、Google AdSense(あるいはAmazonのアソシエイト収入、またはその両方)を利用すれば、こうした小規模なサービスでも容易に収益を確保することができる。

 これらの事例は、Web 2.0のもうひとつの重要な原則である「組み合わせによる革新」を理解する助けになるだろう。コモディティ化したコンポーネントが大量に存在するときは、これらのコンポーネントを新しい方法、または効果的な方法で組み合わせることによって、新しい価値を生み出すことができる。PC革命は、コモディティ化したハードウェアを組み合わせることで革新を起こすことを可能にした。Dellが組み立て事業によって、技術革新に依存したビジネスモデルを持つ企業を打ち負かしたように、Web 2.0は他社のサービスを利用し、それを統合することによって、市場競争を勝ち抜く機会を企業に提供する。

6. 単一デバイスの枠を超えたソフトウェア

 Web 2.0の特筆すべき特徴のひとつは、PCプラットフォームに限定されないということだ。Microsoftのベテラン開発者だったDave Stutzは、同社を離れる際にこう助言している。「今後は長きにわたって、実用性が高く、単一デバイスの枠を超えたソフトウェアが大きな利益をもたらすことになるだろう」

 もっとも、すべてのウェブアプリケーションは「単一デバイスの枠を超えたソフトウェア」と呼ぶことができる。ごく単純なウェブアプリケーションですら、少なくとも2台のコンピュータを必要とするからだ。ひとつはウェブサーバを格納しているコンピュータ、もうひとつはブラウザがインストールされているコンピュータである。すでに説明した通り、プラットフォームとしてのウェブが発展していけば、複数のコンピュータが提供するサービスをゆるやかに統合することによって、新しいアプリケーションを生み出すことが可能になる。

 しかし、「Web 2.0らしさ」とは単に新しいものを作ることではなく、ウェブプラットフォームの可能性を最大限に活用したものを生み出すことを意味する。Web 2.0の多くの原則と同じように、この原則も新しいプラットフォームに適したアプリケーションとサービスをデザインするための重要な洞察を示唆している。

 現時点で、この原則を最もよく体現しているのはiTunesだ。iTunesはユーザーが携帯端末を使って、ウェブ上の膨大な情報にシームレスにアクセスすることを可能にした。PCはローカルキャッシュかコントロールステーションとして機能する。ウェブ上の情報を携帯端末に配信する試みは、これまでにも数多く行われてきたが、iPodとiTunesの組み合わせは、複数の機器で利用されることを前提に設計された、最初のアプリケーションのひとつといえるだろう。TiVoもそのよい例だ。

 iTunesとTiVoは、Web 2.0のその他の重要な原則も体現している。たとえば、iTunesとTiVoはウェブアプリケーションではないが、どちらもウェブプラットフォームの力を利用して、そうと分からないほどシームレスにインフラと一体化している。ここではデータ管理がきわめて重要な役割を果たしている。また、どちらもサービスであって、パッケージアプリケーションではない(ただし、iTunesはユーザーのローカルデータを管理するためのパッケージアプリケーションとしても利用できる)。そればかりか、iTunesとTiVoは集合知も活用し始めている(その結果、どちらも知財分野のロビイストとの戦いを余儀なくされている)。iTunesの場合、参加のアーキテクチャは限られた形でしか実現されていないが、 podcastingの登場によって、状況は大きく変わりつつある。

 この分野はWeb 2.0の中でも、新しいプラットフォームに接続される機器が増えるにつれて、大きな変化が起きる可能性が高いと考えられている。電話や自動車がデータを受け取るだけでなく、発信するようになったら、どのようなアプリケーションが可能になるだろうか。リアルタイムのトラフィックモニタリング、フラッシュモブ(インターネットを利用して呼びかける集会)、市民ジャーナリズムなどは、新しいプラットフォームの可能性を示す最初の徴候にすぎない。

---

Web 2.0のデザインパターン

 Christopher Alexanderは著書「A Pattern Language」の中で、建築に関わる問題とその解法をまとめたフォーマットを定義した。Alexanderはこう書いている。「それぞれのパターンには、ある環境下で繰り返し起きる問題と、その問題に対する解法の核が記述されている。そうすることで、同じやり方を繰り返すことなく、この解法を何遍でも適用することができる」。これをWeb 2.0に適用したのが下記の8つのパターンである。

  1. ロングテール
    インターネットの過半数を占めているのは小規模なサイトだ。小さなニッチが、インターネットで実現可能なアプリケーションの大半を占めている。したがって:ユーザーセルフサービスとアルゴリズムによるデータ管理を導入し、ウェブ全体――中心部だけでなく周辺部、頭だけでなく長い尾(ロングテール)の先にもサービスを提供しよう。
  2. データは次世代の「インテル・インサイド」
    データ志向のアプリケーションが増えている。したがって:独自性が高く、同じものを作ることが難しいデータソースを所有することで、競争優位を獲得しよう。
  3. ユーザーによる付加価値創造
    競争力のあるインターネットアプリケーションを構築できるかどうかは、企業が提供するデータに、ユーザーがどの程度データを加えられるかによって決まる。したがって:「参加のアーキテクチャ」をソフトウェア開発に限定するのはやめよう。ユーザーが無意識に、または意識的にアプリケーションに価値を加えられるようにしよう。
  4. ネットワーク効果を促す初期設定
    自分の時間を割いてまで、企業のアプリケーションの価値を高めてやろうというユーザーは少ない。したがって:ユーザーがアプリケーションを使うことによって、副次的にユーザーのデータも集まるような仕組みを作ろう。
  5. 一部権利保有
    知的財産の保護は再利用を制限し、実験的な試みを妨げる。したがって:広範に採用されることでメリットが生じるものは、利用を制限せず、採用障壁を低くしよう。既存の標準に準拠し、制限事項を最小限に抑えたライセンスを提供しよう。「ハッキング可能」で「リミックス可能」な設計を心がけよう。
  6. 永久にベータ版
    デバイスとプログラムがインターネットに接続されている今日では、アプリケーションはもはやモノではなく、間断なく提供されるサービスである。したがって:新機能はリリースという形でまとめて提供するのではなく、通常のユーザー経験の一部として、日常的に提供していこう。サービスを提供する際は、ユーザーをリアルタイムのテスターと位置付け、新機能がどのように使われているかを観察しよう。
  7. コントロールではなく、協力
    Web 2.0アプリケーションは、複数のデータサービスの協同ネットワークによって実現される。したがって:ウェブサービスのインターフェースを提供し、コンテンツを配信し、他者のデータサービスを再利用しよう。軽量なプログラミングモデルを採用し、システムをゆるやかに統合できるようにしよう。
  8. 単一デバイスの枠を超えたソフトウェア
    インターネットアプリケーションにアクセスできるデバイスはPCだけではない。特定のデバイスでしか利用できないアプリケーションは、デバイスの枠を超えて利用できるアプリケーションよりも価値がない。したがって:アプリケーションを設計する際は、最初から携帯端末、PC、インターネットサーバを視野に入れ、統合的なサービスを提供しよう。

---

7. リッチなユーザー経験

 Pei WeiのViolaブラウザは、早くも1992年にはウェブを利用して、「アプレット」やその他の動的なコンテンツをブラウザに表示していた。1995年には、こうしたアプレットを配信する手段としてJavaが登場した。さらに、クライアントサイドのプログラミングとリッチなユーザー経験を実現するための軽量な方法として、まずはJavaScript、それに続いてDHTMLが登場した。Macromediaは数年前、Flashがマルチメディアコンテンツだけでなく、GUIスタイルのアプリケーション経験も提供できることをアピールするために、「リッチインターネットアプリケーション」という言葉を作り出した(この言葉はオープンソースのFlashクライアントの開発元であり、Macromediaと競合関係にあるLaszlo Systemsも利用している)。

 しかし、ウェブ上でフルスケールのアプリケーションを提供できるという考えが広く受け入れられるようになるまでには、GoogleのGmailと、それに続くGoogle Mapsの登場を待たなければならなかった。両者はウェブベースのアプリケーションだが、リッチなユーザーインターフェースと、PCに匹敵する双方向性を備えている。ウェブデザイン会社Adaptive PathのJesse James Garretは、後に大きな影響力を持つことになるエッセイの中で、これらのアプリケーションを開発するためにGoogleが利用した技術を「AJAX」と命名した。Garrettはこう書いている:

 「Ajaxはひとつの技術ではなく、複数の優れた技術を、新しい強力な方法で組み合わせたものだ。Ajaxには次のようなものが含まれる。

  • XHTMLとCSSを利用した、 標準に準拠したプレゼンテーション
  • Document Object Modelを利用した動的な表示とインタラクション
  • XMLとXSLTを利用したデータ交換とデータ操作
  • XMLHttpRequestを利用した非同期のデータ検索
  • そのすべてを統合するJavaScript」

 AJAXは数々のWeb 2.0アプリケーション、たとえばFlickr(現在はYahoo!グループの一部)、37signalsのBasecampとBackpack、そしてGmail、OrkutといったGoogleアプリケーションでも重要な役割を果たしている。今、ユーザーインターフェースの分野では未曾有の革新が始まりつつある。ウェブ開発者はついに、ローカルのPCアプリケーションと同等の機能を備えたリッチなウェブアプリケーションを開発できるようになるだろう。

 興味深いことに、現在開発が進められている機能の多くは、何年も前からアイディアとしては存在していた。今ようやく実現しつつあるこれらの機能を、MicrosoftとNetscapeは1990年代末の時点ですでに構想していた。しかし、両社は標準をめぐって対立していたため、ブラウザを超えたアプリケーションを開発することは難しかった。Microsoftがブラウザ戦争に決定的な勝利をおさめ、ブラウザのデファクトスタンダードが1つに絞られたことによって初めて、この種のアプリケーションが登場する余地が生まれたのである。 Firefox の登場によって、ブラウザ市場にはふたたび競争がもたらされたが、少なくとも現時点では、1990年代に進歩の足かせとなったような、ウェブ標準をめぐる破壊的な競争は起きていない。

 今後数年で、多くのウェブアプリケーションが登場するだろう。それは誰も見たことのないアプリケーションであり、PCアプリケーションに匹敵するリッチな機能をウェブ上で実現するものだ。歴史をひもとくと、プラットフォームの変化は常に、プラットフォームを支配するアプリケーションの交代劇をもたらしてきた。

 電子メールの分野では、すでに「Gmail」が興味深い革新をもたらしている。Gmailはウェブの強み(どこからでもアクセスできること、データベースとの連携、検索機能など)とユーザーインターフェースを組み合わせることで、PCと同等のユーザビリティを実現している。一方、PCベースのメールクライアントは、IMやプレゼンス機能を取り込むことによって、別の方面からユーザビリティの向上に取り組んでいる。Eメール、IM、そして携帯電話の利点を備え、VoIPを利用して、ウェブアプリケーションの豊富な機能にさらに音声機能を搭載した、統合コミュニケーションクライアントはいつ登場するのだろうか。開発競争はすでに始まっている。

 Web 2.0はアドレス帳のあり方も変えようとしている。Web 2.0スタイルのアドレス帳は、PCまたは電話に保存されているローカルのアドレス帳を、ユーザーが意識的にシステムに記憶させた連絡先情報の単なるキャッシュとして扱う。これに対して、ウェブと同期を取るアドレス帳、つまりGmailスタイルのアドレス帳は、送受信されたすべてのメッセージ、すべてのメールアドレス、利用されたすべての電話番号を記憶し、ローカルキャッシュに答えが見つからない場合は、ソーシャルネットワーキングの手法を使って、その中から代替となる選択肢を探し出す。そこにも答えが見つからない場合は、ソーシャルネットワーク全体を検索する。

 Web 2.0のワードプロセッサには、通常の文書編集機能だけでなく、wikiスタイルの協調的な編集機能や、PC用ワードプロセッサと同等のリッチなフォーマット機能も搭載されるだろう。 「Writely」はこうしたアプリケーションのよい例だが、まだ広範に採用されるには至っていない。

 Web 2.0革命の洗礼を受けるのはPCアプリケーションだけではない。Salesforce.comはCRMのようなエンタープライズ規模のアプリケーションでも、ウェブを利用して、ソフトウェアをサービスとして提供できることを証明している。

 新規参入企業が競争優位を獲得するためには、Web 2.0の可能性を十分に活かすことが鍵になる。Web 2.0時代には、ユーザーから学び、参加のアーキテクチャを使って、ソフトウェアインターフェースだけでなく、共有データの充実度の面でも、競合他社を凌駕するようなアプリケーションを構築することのできる企業が成功を収めることになるだろう。

Web 2.0企業のコアコンピタンス

 7つの原則を検討することで、Web 2.0の主な特徴を明らかにしてきた。各項で取り上げた事例は、これらの重要な原則のひとつ、または複数を体現しているが、必ずしもすべての原則を満たしているわけではない。最後に、われわれがWeb 2.0企業のコアコンピタンスと考えているものをまとめておこう。

  • パッケージソフトウェアではなく、費用効率が高く、拡張性のあるサービスを提供する。
  • 独自性があり、同じものを作ることが難しいデータソースをコントロールする。このデータソースは利用者が増えるほど、充実していくものでなければならない。
  • ユーザーを信頼し、共同開発者として扱う。
  • 集合知を利用する。
  • カスタマーセルフサービスを通して、ロングテールを取り込む。
  • 単一デバイスの枠を超えたソフトウェアを提供する。
  • 軽量なユーザーインターフェース、軽量な開発モデル、そして軽量なビジネスモデルを採用する。

 「Web 2.0」を自認する企業を見かけたときは、その企業が上記の項目を満たしているかどうかを観察してみるといいだろう。当てはまるものが多いほど、その企業はWeb 2.0企業と呼ぶにふさわしい。しかし、特定の分野で突出した能力を示していることは、7つのすべてを少しずつ満たしているよりも、その企業がWeb 2.0的であることを示している場合があることを忘れないでほしい。

Tim O'Reilly
O'Reilly Media社 社長兼CEO
(tim@oreilly.com)

この記事は2005年9月30日にO'Reilly Networkで公開されたものです(原文へ)。