電車でかわいい女の子が隣にいるときの僕のインターフェースは最先端なのですが、最近ウェブではコンテンツの質について取りざたされていますね。 CGM に限らずウェブに公開されているコンテンツは基本的にマンパワーによって生成されています。つまり、コンテンツの増加量はインターネット利用者数の増加に対して指数関数的であると言えます。これがいったい何を示すのか、今日はそこんとこについて考えてみたいと思います。 SEO の功罪Google 検索を代表とする既存のフィルタは、リンクジュースという機械的な相関の重み付けを基準としています。「何が重要であるか」を評価するのではなく、前提として重要である要素を決めています。これは「気温が上がった原因が二酸化炭素にあるかどうかを評価せず、二酸化炭素が増える事で気温が上がると仮定した」という論理と同意です。 つまり、利用者ではなく提供者がその価値をコントロール出来る
Ajaxを使うためにはページ内リンク (hash fragment=URLの#以降) を使うのが一般的*1 hash fragmentはサーバに送信されないから、JavaScript非対応のブラウザだと動作しない 特にサーチエンジンのクローラ等で問題になる*2 そこで Google は、#! が含まれる URL を hash を含まないものに読み替える仕組みを提唱している。例えば「www.example.com/ajax.html#!key=value」のサーチエンジン用URLは「www.example.com/ajax.html?_escaped_fragment_=key=value」になる。 TwitterやFacebookはこの仕様に従うことで、Ajax な UI と SEO を同時に実現している、というわけ。ということを調べたなう。 参照: Getting Started |
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く