ここ数年、バーティカルの統合を進めるグーグルが様々な変更を行っているが、ローカル化とバーティカル化を除くと、コアの関連性アルゴリズムに対しては(特にスパムとの戦いにおいて)、最近は、あまり変更が行われていない。確かに何度か巧妙な取り組みが行われていたが、グーグルがこれほどまでにパワーアップしたことを考えると、最近のコアの検索に対するアプローチは、数年前よりも穏やかになっている(セルフプロモーションの推進を除いて)。
グーグルが意図的な介入をトーンダウンさせた理由については以下のように様々な臆測が流れている:
先日、マット・カッツ氏がグーグルの公式ブログに投稿したエントリは、No.3を取り上げていた:
ここ数ヶ月でサイズと鮮度を高めてきたが、そのなかで多くの質の高いコンテンツと共に少数のスパムもインデックスしていた。この問題に対処するため、先日、グーグルはドキュメントレベルの分類子を見直し、スパムのオンページコンテツが上位にランクインしづらくするようにした。新しい分類子は、例えば、ジャンク感丸出しの、自動化され、自己宣伝を目的としたブログのコメントに頻繁に登場する繰り返すばかりのスパムメッセージのうような、個別のウェブページでのスパムの検知に長けている。また、2010年のスパムの主要な供給源であった、ハッキングされたサイトを検知する能力も大幅に改善した。そして、他人のコンテンツをコピーするサイトやオリジナルのコンテンツのレベルが低いサイトに影響を与える変更を含む、スパムレベルをさらに低下させる効果のある複数の変更を診断している。
グーグルは、ハッキングされたサイト対策、そして、自動生成 & 複製されたコンテンツ対策に焦点を絞っていたようだ。現在、ハッキングされた*政府*のサイトが、数百ドルで販売されている(政府に狙われたら数百ドルどころでは済まないだろうが)ことを考えると、サイトのハッキングに対抗する取り組みは理に適っていると言えるだろう。また、グーグルのアルゴリズムに内在する“ドメインのオーソリティ”を活用する様々なスタートアップが誕生しており、ページごとに注目するメトリクスが関連性を高める上で必要とされている。このページごとのメトリクスを用いることで、グーグルはサイト全体を犠牲にすることなく、良質なサイトの悪い部分のみをフィルタリングすることが出来るようになる。
グーグルが筋金入りの自動生成スパムの問題の多くを解決しようと試みてきた結果、ありきたりなスパムに焦点を絞ることが可能になった。そのなかでも、コンテンツミルには非難が殺到しており(そのほとんどは、ウェブパブリッシャー & SEOから)、現在、大きな問題になっている:
「ピュアなウェブスパム」は時間の経過とともに減ってきたが、その代わりに浅はかなコンテンツ、もしくは質の低いコンテンツが詰まった“コンテンツファーム”に注目が集まるようになった。2010年、私たちは質の低いサイトに焦点を絞った2つの主要なアルゴリズムの変更を行った。それにも関わらず、コンテンツファームおよびスパムまたは質の低いコンテンツを優先するサイトに対して、さらに強硬な対策を取るよう求める声がウェブで高まっている。 私たちはグーグルの検索に誇りを持っており、すべての検索を完璧にするため努力している。しかし、現実として、グーグルは完璧ではない。それでもグーグルに対するユーザー達の期待は高まる一方であり、欠点が大きく見えてしまうのだ。
ディマンド・メディア(DMD)は、間もなく株式の公開を行うことになっており、そのディマンド・メディアのCEOを務めるリチャード・ローゼンブラット氏は、マーケットで最高値を見計らう手腕に長けている(iMallやマイスペースを見れば分かるように)。
しかし、グーグルが対策を強化しよとしているコンテンツミルにはどのようなサイトが該当するのだろうか?
ありふれたスパムの難しいところは、主観が絡む点である。例えば、エンドユーザー(特にパブリッシャー & オンラインの広告主ではない人々)はeHow等のサイトにそれほど抗議しない可能性がある。なぜなら、このようなサイトは見た目も良く、また、読みやすいようにフォーマットされているからだ。コンテンツは確かにレベルが低いかもしれないが、グーグルは一部の大規模なサイトを意図的に見過ごしている可能性が高い。そして、エキスパートが作成したにも関わらず、フォーマットが劣悪であり、その結果、eHowよりもエンドユーザーに質が低いとみなされるコンテンツが多く存在する。これは単純にオンラインで読まれる点を念頭に置いてフォーマットされているわけではないためだ。
メーデーのアップデートでは、リチャード・ローゼンブラット氏は、トラフィックが増えたと語っていた。また、グーグルが昨年の10月22日に行ったアルゴリズムの変更により、多くの小規模なウェブサイトが忘れ去られてしまった(11月9日に復活した)。しかし、このアップデートはeHowのようなサイトには影響を与えなかった。
それでも、マット・カッツ氏が先日投稿したブログに関するハッカー・ニュースのスレッドでは、同氏はグーグルがマハロに対して措置を講じたことを明かしている: 「グーグルは以前マハロに対して措置を講じたことがあり、過去、ガイドラインに違反していたマハロの数多くのページを削除した。特定の企業を話題に上げない傾向があるからと言って、何かしらの無料パスを提供しているわけではないことを言っておこう」。
私の予想では、10月23日にトラフィックが急降下したサイトは、再び痛い目に遭うのではないかと思う。主題の検索の関連性が厳格化されると、浜へ押し寄せる波のように問題が浮上しては引いていく。問題が解決されることにより、結局新しい問題が発生する機会を与える。そして、問題が解決されてからほとぼりが冷めると、宣伝のベストプラクティス化に励む程度では問題視されなくなる。
検索から永遠に消えることをチャンスと捉えている人は、何度も繰り返し消えては生まれるチャンスに注目している人よりも、悲観的と言うことが出来るだろう。
とは言ったものの、私はカッツ氏のブログのエントリは、警告する意図があると見ている。カッツ氏はどのようなタイプのサイトを狙っているのだろうか?そして、このような変更から、どのようなサイトがメリットを享受するのだろうか?皆さんの意見を聞かせてもらいたい 🙂
この記事は、SEO Bookに掲載された「Google Gearing Up for Relevancy Changes」を翻訳した内容です。
今回のアルゴリズム調整は単なるワードサラダや複製コンテンツによるスパム的SEO対策以外に、特に英語圏で問題になっている低品質コンテンツミル・lコンテンツファーム系巨大サイトを検索結果でどう扱うべきか、という意味合いも大きく含まれているようです。実際それらのサイトに対する対応はまだ微妙な感じではあるのですが。Googleがどれだけ進化してもスパムはあり続けるでしょうが、スパムで勝負し続ける自信がない方は、そろそろ真面目に質の高いコンテンツを作っていくことを考える時期に来ているのかもしれません。。。 — SEO Japan
SEO最新情報やセミナー開催のお知らせなど、お役立ち情報を無料でお届けします。