無料で資料をダウンロード
SEOサービスのご案内
専門のコンサルタントが貴社サイトのご要望・課題整理から施策の立案を行い、検索エンジンからの流入数向上を支援いたします。
無料ダウンロードする >>
サイト最適化から外部リンク獲得までプロの間でも様々な意見に分かれるSEOですが、今回は初心者はもちろん上級者も読みたいSEOに関する都市伝説的に生き続ける36の迷信を紹介。ここに書かれていることの是非が自分なりに理解・解釈できればあなたも一人前のSEOマスター? — SEO Japan
毎日のようにSEOの迷信が生まれている。不幸にも、その迷信は修正されることなく、その結果、その数が増えていく。この類の迷信を一掃するのは至難の業だ。私たちの業界の怪しげな業者が持続させているためだ— あと一息で消せそうな迷信を引き戻す輩までいるほどだ。この傾向に歯止めをかけるため、カンファレンスで徹底的に説明することも出来るし、このようなチェックリストを作ることも出来る。また、書籍の中で説くことだって出来る。しかし、それでも良質なメタキーワードを作成する方法を頻繁に尋ねられるだろう。
マット・カッツ氏が、先日投稿したエントリ、グーグル、検索エンジンにサイトのスピードを導入の中で試みていたように、迷信が根付く前に先手を打つ手もある。カッツ氏は一生懸命説明していたが、“グーグルがランキングを特定する新しい主要なファクターはサイトのスピードだ”、および、“サイトのスピードは、ホスティングにさらに資金を投じることが出来る大規模なサイトに有利に働くだろう”と主張する迷信を、私たちは再び聞く(もしくは読む)ことになるだろう。
迷信の仮面がはがされることもあるが、やがて復讐に燃えて復活する。メタキーワードのタグを例にとって説明しよう。グーグルは、この価値のないタグをサポートしたことは一度たりともない。しかし、ヤフー!は一定の期間このタグを“サポートしていた”。ヤフー!が(SMX イースト 2009カンファレンス)でメタキーワードのタグを今後は信用しないと発表した件を覚えているだろうか?その数日後にダニー・サリバン氏は自ら行った実験で判明したことを報告していた。その結果、ヤフーのメタキーワードに対する主張は誤っていたのだ。ヤフー!では、今でもメタキーワードが利用されている(ただし、とても重要度は低い)。
個人的には、誤った情報やデマは大嫌いだ。しかし、不幸にもこの業界は誤った情報やデマで溢れている。私はこの弊害に対峙し、真実を広げるべく、自分の役割を果たしていくつもりだ— 実際に、このエントリでは知らぬ間に浸透しつつあるガセネタを掘り起こすつもりだ。それ以外に手はないと思う。クライアントのSEOおよびSEMのパフォーマンスにおける“真実の情報源”になることがコヴァリオ(註:筆者の会社)の密かな目標なのだ。
さて、能書きはもう十分だ。そろそろ本題に入ろう…
- 弊社はSEOの会社としてグーグルから承認されている。 次に挙げる文章は、実際に私の友人があるSEO業者から受け取ったeメールの内容である:
私たちは…グーグルに承認され、グーグルと提携を結び、オプティマイザーとして認められています。グーグルと提携関係を持つ企業はごく僅かであり、その1社が弊社なのです!グーグルの提携企業リストの中から弊社を探すには、以下のURLを訪問して下さい: https://www.google.com/websiteoptimizer/woac.html そして、地域を選択して下さい: 米国; ページの中央までスクロールすると、ナショナル・ポジションズが掲載されているはずです。
なるほど…。もうリストには彼らの名前は掲載されていない。
- グーグル・アナリティクスを使うべきではない。なぜならグーグルはコソコソ嗅ぎまわり、つかんだ情報を使って攻撃してくるからだ。これは陰謀マニアの忠告だ。グーグルはトラフィックやコンバージョンのデータを使い、スパマーに仕立て上げるようなことはしないと、何度も断言している。
- グーグルのツールバーのサーバーの報告にあるように、ページランクのスコアはグーグルのランキングに大きく関係している。 この情報が正しかったら、SEO業者としての私たちの仕事はとても楽になる。SEO フォー ファイヤーフォックスを使えば、低いページランクのURLが高いページランクのURLを上回るケースを何度も目にするだろう。ツールバーが報告するページランクを、グーグルがランキングアルゴリズムに利用する内部のランキングと同一視するのはナイーブだ。
- XMLのサイトマップを作ると、グーグルのランキングが上がる。 私がプレゼンを行った先月のカンファレンスでのSEOのセッションで、この迷信を仲間のパネリストから聞かされた(この人物の名前もカンファレンスの名前も伏せておく)。ビックリしたが、私はグっと抑えて、この人物をオーディエンスの前で辱め、口論する醜態は晒さないことにした。私は正直な意見を述べるべきだったのだろうか?この迷信をそのままにしておいたため、オーディエンスに迷惑をかけてしまったのだろうか?ずいぶんと葛藤したものだ。いずれにせよ、グーグルは、サイトを見つけるため、そして、重複するコンテンツを持っている場合に正規化の手掛かりとしてサイトマップのファイルを利用する。しかし、sitemaps.xmlを利用したからと言って、URLにそれ以上の“ジュース”を与えたりはしない。たとえ優先度のレベルを割り当てても同じことである。
- パーソナライゼイションと言う概念が生まれて以来、ランキングで1位を獲得していると宣言することは出来なくなった。皆、違う結果を見ているからだ。グーグルが検索結果をユーザーの検索履歴を基にパーソナライズしている点は事実だが(しかも現在はグーグルにログインすることなく、パーソナライズされた結果を得ることが出来る)、パーソナライズされた結果とされていない結果の違いは比較的小さい。自分で確かめてみよう。クエリを2度利用する癖をつけよう — 2度目は &pws=0をグーグルのSERPのURLに加え—どれぐらい変わるか確かめるのだ。
- メタタグがランキングを上げる。もうメタタグに関する戯言は聞き飽きた。メタキーワードを最適化する取り組みは単なる時間の無駄でしかない。これ以上同じことを言いたくない。メタキーワードはスパマーに濫用され、検索エンジンはここ数年まったく重要視していない。メタディスクリプション、メタオーサー、メタロボット等のその他のメタタグについてはどうだろうか?ランキングのアルゴリズムにおいては、重宝されているメタタグは存在しない。
- インデックス、フォローを特定するメタロボットタグを含めるのは良いアイデアだ。これは11の迷信の続きのようなものだ。しかし全く不要だ。検索エンジンは、「許可するな」と明確に指定しなければ、すべてインデックスおよびフォローしても良いと考える。
- ターゲットのキーワードをHTMLのコメントタグとタイトルの属性内に含めると有効だ(IMGとHREFタグ)。 一体、コメントタグやタイトルの属性は、いつから重要視されているのだろうか?
- 国別のサイトを持つと、“コンテンツの重複”問題がグーグル内で発生する。 .com.auのサイトをグーグルオーストラリアのユーザーに提示し、.com.nzのサイトをグーグルニュージーランドのユーザーに提示することぐらいグーグルにだって分かる。ccTLDを使っていないなら、地理のターゲットの設定をグーグル・ウェブマスター・ツールズで実施しよう。そのためにあるのだ。何か問題はあるだろうか?
- ジャバスクリプトのリンクを使ってリンクを張っているページを検索エンジンにインデックスさせない。グーグルがジャバスクリプトベースのリンクを辿る件を取り上げた記事はとても多い。グーグルのエンジニアは、グーグルがジャバスクリプトのリンクをますますクロールするようになっていると述べている。当然だが、ジャバスクリプトのリンクの解析をグーグルに頼るべきではないが、グーグルがジャバスクリプトのリンクに触れることが出来ないなどと勝手に期待しない方がよい。
- グーグルボットはCSSを読まない。 グーグルはdivを隠す等のスパムの手法を考慮し、CSSをスキャンしている。
- .htmlでURLを締めるべきである。そうしたら、何か効果があるのだろうか?
- ターゲットに絞った用語に対するホームページのランキングを、その用語を内部リンクのアンカーテキストに入れることで、上げることが出来る。 SEOmozが実施したテストにより、「Home」のリンクは大抵無視されることが判明した。「Home」を使おうが、「San Diego real estate」を使おうが、あまり重要ではない。
- ホームページを頻繁に更新することは(例えば毎日)、ランキングにとって重要である。 これは、先程申し上げた仲間のパネリストが広げていた誤った指摘である。新鮮さに欠けているもののランキングが高いサイトは腐るほどある。
- リンクを交換するとページランクとランキングが上がる。 まったく関係のないサイトと大規模にリンク交換を実施する場合のことを言っているのだろう。それはない。相互リンクは一筋縄ではいかない。アルゴリズムにとっては、簡単に見つけ、軽視することが出来るリンクである。自分のサイトに自分オリジナルのヤフー!ディレクトリを用意してもユーザーの役にも、SEOの役にも立たない。
- 外部のサイトにリンクを張ることで(グーグルドットコムへのリンクなど)はランキングを上げる。 不正解。まったく外部サイトにリンクを張らないことでページランクを出し惜しみしているなら話は別だが — その場合不自然に見えてしまう。その逆が好まれる。つまり、自分のサイトへのリンクを獲得すると — 効果がある。
- リンクのURLを選択的に、そして、スパイダーのために削除すると[クローキング]と見なされるため、この行為はタブーであり、リスキーである。立派な目的を持っているなら、恐れることは何もない。主要な検索エンジンはすべて認めている。セッションID、トラッキングパラメーター、その他の余分なパラメーターをサイト上のURLから取り払うことで、検索エンジンを助けているのだ — ユーザーエージェントの検出によって行われようが、クッキーの検知によって行われようが関係ない。これが悪行と見なされているなら、なぜヤフー!は実施しているのだろうか?自分で確かめてみよう。Yahoo.comのホームページを訪問し、グーグルボットのユーザーエージェントの文字列を利用しよう(例えば、ファイヤーフォックスでユーザー・エージェント・スウィッチャー・エクステンションを使う)。「ylt」パラメーターがすべてのリンクから外されていることに気付くだろう。
- メタディスクリプションを特定しているなら、グーグルはスニペットにその記述を使う。既に前回のコラム(Googleスニペットを大解剖)で、そうとは限らないことを学んでもらったはずだ。
- グーグルのリスティング内の太字は、その部分がランキングの選考過程に選ばれていることを意味する。こちらも前回のコラムで説明したように、これは情報検索のエキスパートの間でKWICと呼ばれる現象であり、— ユーザビリティの目的で導入されているだけだ。
- H1タグはSEOには欠かせない要素である。SEOmozが実施したリサーチの結果を見ると、H1タグとランキングの間には相互関係はないことが分かる。しかし、良質なH1の見出しを作成するべきである。ただし、SEOのためではなく、ユーザビリティとアクセシビリティのために実施しよう。
- グーグル・モバイル検索には幾つかユニークなランキングのシグナルがあり、「XHTML Mobile」と言うマークアップもその一つだ。 グーグル・モバイル検索の結果は、グーグル・ウェブ検索の結果と同じだ。モバイルフレンドリーなバージョンを作る必要があるが、SEOのためではなく、ユーザーのために実施しよう。
- SEOは黒魔術だ。 そして、通常はならず者のSEOコンサルタントがクライアント/他のスタッフから独立し、暗い部屋で行われる。SEOがこのように行われているなら、私たちはスパイのような生活を送っていることになる。
- robots.txt内のDisallowディレクティブがあるとグーグルからインデックスされない。「Robots.txtを徹底調査」の中で説明したように、disallowはスニペットのない、タイトルのないリスティングを生成する可能性がある。格好良いとは言えない。ページをインデックスされたくないなら、Disallowディレクティブではなく、Noindex robots.txtディレクティブ、もしくは、meta robots noindexタグを使おう。
- SEOは一度実施したらそれで終わり。「サイトのSEOが終わったよ」なんてセリフを聞いたことがあるだろうか?この戯言を聞く度に私は全身の力を振り絞って、ウソだ!と叫びたくなる。SEOは継続的な取り組みである。ウェブサイトが“終わる”ことがないのと同じように、SEOも終わらないのだ。カタログのマーッケターはこの件を誰よりもよく分かっている。彼らはプリントアウトするカタログを隅々まで最高の出来に仕上げる。しかし、改善する余地はそれでもある。「一度セットして、ハイ、終わり」と言う誤った考え方は、とりわけIT企業のスタッフに浸透している。— 彼らは何に対しても、任務を終わらせ、“チケット”を閉じて次の仕事に移って、正気を維持するフローを当てはめ、プロジェクトのように取り扱う癖があるのだ。ただし、私には彼らを責めることは出来ない。
- 自動的なSEOは、悪質かスパムかのいずれか。 自動プロセスを利用する行為は悪質でもなければ不適切でもない。むしろ、大規模な自動化を実現する業界特有のツールとテクノロジーが広がっており、マーケットでの成熟度が反映される。自動化なしでは、既にウェブ上に投稿した大量のコンテツに対するSEOの取り組みを企業が評価するのは不可能に近い。クリス・スミス氏が、SEOの自動化に関する説得力のある見解をこの素晴らしいエントリの中で述べている。
- サイトマップは人間のためではない。良質な(XMLではなくHTML)サイトマップは、スパイダーだけでなく、人間のために作成される。人間に見られることを考慮せず、ページ/コピー/リンクを検索エンジンだけのために作成すると、トラブルに巻き込まれる可能性が高い。
- スパイダーに見てもらうために、すべてのページにリンクを張る必要はない。XMLのサイトマップにすべてのURLをリストアップすればよい。孤立したページは、難解な検索用語以外で上位にランキングされることは滅多にない。自分でさえリンクを張りたいと思えないようなウェブページに対して、検索エンジンが、質およびランクをつける価値について、どのような結論に達すると思うのだろうか?
- グーグルはサイトの検索エンジンフォームからしかアクセス出来ないページはインデックスしない。 かつては正しかった。しかし、グーグルは少なくとも2008年からはフォームを入力、結果をクロールすることが出来るようになった。だからと言って、スパイダーに対するサイトのアクセシビリティを無視してもよいことにはならない。この作業を怠ると、残念な結果に終わるだろう。
- リンクを小さなサイズのフォントでホームページの下の方に掲載すると、サイトの深いページのランクを上げる効果がある。それよりもリンクをページの背景と同じ色にして、CSSを駆使してリンクを脇に寄せればホームページのデザインを損なわずに済むはずだ!(冗談なので、絶対に真似しないように)。
- 「数多くの検索エンジン」にサイトを登録することを約束しているサービスを利用すれば、ランキングに良い影響が出る。 この迷信を信じているなら、大金を国外に持ち出すために“あなたの”助けを必要としているナイジェリアの王子がいることをご存じだろう。大きな見返りを得ることが出来るらしい。
- ドメインのホームページのページランクには意味がある。 「私はページランク6のサイトを持っている」と言うセリフをよく聞くが、事実上、意味はない。既に申し上げたように、ツールバーのページランクはよくても誤解を招く程度で、最悪の場合、まったくのでたらめである。また、ホームページのページランクが高くても、内部のページのページランクが高いとは限らない。それはサイトの内部リンクの構造の役目である。
- リンク構築を、自分のビジネスのことを何も知らない遠隔地の時給制の業者にアウトソースすると、うまくいく。とても健全な決断… のわけない!ブロゴスフィアは、既に多くの役に立たない、スパムのような、第三世界のリンク構築業者による片言の英語のコメントで詰まり気味である。彼らを雇ってサイトを“売り込む”必要はない。状況は悪化する一方だ。
- SERPのクリックスルー率は重要である。これが事実なら、上述の第三世界のリンク構築業者は検索エンジンの結果ページを一日中クリックしているだろう。
- キーワードの密度はマジでいかす。 「いかす」は死語かもしれないが言いたいことは分かってもらえたはずだ。キーワードの密度の値をモニタリングする意味はない。
- ハイフンでつながれたドメイン名はSEO的に最高。 例: san-diego-real-estate-for-fun-and-profit.com. .com以降の残りのURLでキーワードをハイフンで切り離そう。しかし、ドメイン自体で実施する必要はない。
- 最高のコンテンツ = 最高のランキング。 最高の法案 = 最高の政治家と同じような意味だろうか?
上述のリストに貢献してくれた迷信バスターを紹介しよう: クリス・スミス氏、ランド・フィッシュキン氏、エリック・エンゲ氏(この場を借りて感謝の意を伝えたい)
真実を広げるのは皆さん次第だ。SEO業者の仲間と手を取り合い、この損害をもたらすSEOの迷信を退治しよう。あなたも迷信バスターになるのだ。
どのSEOの迷信が最もしゃくにさわるだろうか?私は何か見逃しているだろうか?コメントを待っている。
この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。
この記事は、Search Engine Landに掲載された「36 SEO Myths That Won’t Die But Need To」を翻訳した内容です。
This article on Columns: 100% Organic – Search Engine Optimization Tips first appeared on Search Engine Land.
c Copyright Third Door Media, Inc. Republished with Permission.
迷信とは言え、36もあると圧巻ですね。思わず読み込んでしまいました。一部、人によって意見が違うものもありそうですが、大半が迷信と言って間違いなさそうです。1つ1つの内容を理解できるか、自分の経験や知識でどう解釈できるかでその人のSEOレベルが問われそうな内容ですね。ブックマークして定期的に見直してみても面白い記事かもしれません。宣伝じゃないですよ。 — SEO Japan