グーグルは、格下げされたスパム目的のサイト、ハッキングされているサイト、スパイウェアを提供しているサイト等を除くサイトの格付けを“アルゴリズム”が管理する状態を長らく維持してきた。
そんな中、SMXのカンファレンスで、Googleがホワイトリストを利用していることが判明した:
グーグルとビングは、アルゴリズムの影響を受けるべきではなかったものの、実際には影響を受けたサイトに対する“例外リスト”を用意している点を認めた。マット・カッツ氏は、グローバルなホワイトリストは存在しないものの、グーグルの検索結果のサイトにネガティブな影響を与える一部のアルゴリズムに対して、グーグルは個別のサイトを特別扱いする可能性があると説明した。
「スパマーを除き、サイトが値するランクを得る」と言うアイデアは、グーグルが反競争的行為に及ぶ可能性をけん制するために、昔から推進されてきた。グーグルのマーケティングは、「ウェブが持つ固有の民主的な特徴」と言うフレーズをさらに活用し、ページランクの元々の仕組みを強調してきた。
そこで、グーグルの行動、そして、グーグルが行動を起こしていると思ってもらいたくない心情の違いを考えるために、思考的な実験を行ってみようと思う。
まずはネガティブな見解から検証してみよう。グーグルが競合する製品を持っているか、あるいは、当該のサイトがグーグルのエンジニアに嫌われているかのどちらかであり、どうしても好きになれないと言う理由で、わざわざ攻撃していることになる。グーグルが世界の大半の国々で市場を独占しているレベルを考慮すると、グーグルが事業の関心を基に勝者と敗者を選んでいると言う考え方は受け入れられない。
ポジティブな見解は、「判断が微妙なスパムを除き、アルゴリズムがほぼすべてのページを処理する」と言うものだ。
「アルゴリズム」はほとんど全てのページに対処していると言う主張が行われても、個人的な偏見をくみ取り、上位にランクインさせるサイトとさせないサイトを容易に決定することが出来る。「アルゴリズム」は何よりもまず法的な盾としての役目を持っている。さらに、マーケティングツールとしても有効である。関連性は重要度においては3番目に位置しているのであろう(それ以外には、コンテンツファームの問題に対してグーグルが重い腰を上げる前にここまで時間がかかった理由が思いつかない)。
この記事は、SEO Bookに掲載された「A Thought Experiment on Google Whitelisting Website」を翻訳した内容です。
この問題発言、実は私も参加したセッションだったのですが、見事にこの問題発言を見逃しておりました。。。ファーマーズアップデートに関する話の中で「ホワイトリストは一部存在するが、ファーマーズ(パンダ)アップデートでは特に適用されなかった」とマット・カッツはさらっと流した発言だったのですが、前者の「一部存在する」が結果的に大きく取り上げられたようですね。確かに言われてみると、これまで認めていなかった話ですからね。セッション中は突っ込まれていなかったため見過ごしてしまいましたm(__)m しかしホワイトリストがありなら、上記のSEO Bookが考える世界まではいかなくとも検索結果が自由に操作される世界になってしまいそうで怖い気もしますね。今後の展開に注目。– SEO Japan
SEO最新情報やセミナー開催のお知らせなど、お役立ち情報を無料でお届けします。