ペンギンやパンダアップデートでリンク構築に頼ったSEOは過去の遺物、、、とはならないのがSEO。同時に長年に渡って通用してきた限りなくスパミーなリンクトリックが通用しなくなってきたのは事実です。そこで今回はこれからのリンク構築に通用すると思われる基本的なリンク構築に関する考え方やテクニックを老舗SEOエキスパートが53まとめあげた記事をサーチエンジンランドから。あなたの知識の確認に最適。 — SEO Japan
参考:被リンクとは?SEOにおける重要性や獲得方法、注意点などを解説
好きか嫌いかに関係なく、リンク構築は今まで、そして、今もなお重要なビジネスとして健在である。リンク構築を成功させるには多くの時間とリソースが必要であり、大半のウェブマスター/サイトのオーナーは、自分でリンク構築を行うことが出来ない、もしくは望んでいないためだ。また、その他の検索エンジンマーケティングの領域を取り扱う多くの業者も、莫大なリソースが吸収されてしまうため、リンク構築をアウトソースすることを望んでいる。
これは私のようなリンク構築の専門家にとっては嬉しい傾向だが、徹底してリンクを提供することが求められ、また、作業の難易度が高いものの、ソーシャルメディアで誰でもプロモーションを容易に行えるために、劣悪なリンク構築を行う人達、そして、リンク構築を全然分かっていない人達が恐ろしいほど増えている。
リンク構築はオフページのトラフィックの獲得と考えられており、リンクビルダーとして売り込む上で求められていることは少ない。何故なら助けを求めている人々が大勢いるからだ。
しかし、スパムばかりのリンク構築キャンペーンに行うつもりなら、そもそもリンク構築を控えるべきである。さもなければ、リンク構築を行うために一回、そして、リンクを削除するために一回 – 二倍のツケを払うことになるだろう。リンク構築業者を探しているなら、以下のポイントの大半を把握している業者に依頼するべきである。
目次
ここでさらっと説明するほど単純な話ではないが、リンクが重要である理由が分からないなら、一人でリンク構築を行うべきではない。リンクは、ユーザーと検索エンジンのスパイダーがインターネットを移動する手段であり、リンクが張られた/リンクを張ったコンテンツの内容の手掛かりを与える役目も持つ。
https://www.w3schools.com/html/html_links.aspに分かりやすい参照情報が掲載されているが、基本的には決して難しくない:
これは一筋縄ではいかない可能性がある。事実、誤ってコーディングされたrobotsファイルが多く存在する。しかし、読み方がよく分からなくても、幾つか優れた検証ソフトがあるので活用してもらいたい(私はhttps://tool.motoricerca.info/robots-checker.phtmlを多用している)。
robotsファイルは常にrobots.txtと言う名前が付けられており、ルートに存在する。従って、yoursite.com/robotsでいつでもアクセスすることが出来る。robotsファイルが存在しない場合は探しても見つからない。それでも問題はないが、robots.txtを持っているなら、有効である点を確かめてもらいたい。
次に注意するべきコードを挙げていく:
User-agent: *
Disallow: /
このコードは、検索エンジンが現れた際に退去を命じる。開発/テスト環境がないため、コードを生かしておくものの、インデックスさせないようにする際にこのコードは通常用いられる。意図しているなら問題ないが、検索エンジンにインデックスしてもらいたくなったら、このコードを忘れずに削除しよう。
サイトが最近急に姿を消したなら、すぐにrobots.txtをチェックすること。 また、下にリストアップしたメソッドを使って、エンジンをブロックすることも可能だ。このメソッドの利用は若干複雑なので、グーグルによるrobotsのブロックに関する情報を仕入れておいてもらいたい(ここをクリック)。
サイトが急に消え、robots.txtファイルをチェックしても問題なかったなら、コード内の次の行を確認しよう:
<meta name=”robots” content=”noindex”>
ワードプレスは有数の人気を誇るブログプラットフォームであり、熟知しておきたい。個人的にはユーザーフレンドリーなプラットフォームだと思うが、初心者向けのガイドが無数に存在するので参考にしよう。しかし、様々な取り組みに共通することだが、実際にサイトを設定して、利用すると多くの教訓を得られる。
ワードプレスを使いたくなくても問題はない – 人気の高い別のプラットフォームでベーシックなサイトを設定する方法を学べばよい。リンク構築においてこの取り組みがとても重要だと私が考えているのは、サイトの内部の詳細に実際に触れると、SEO、コンテンツ作成、そして、ユーザビリティについてより真剣に考えるようになるためだ。これは全てマーケティングの領域であり、必ずしもリンク構築に関わるわけではないが、常に考慮しておくべきである。
グーグルから警告メールを受けるまでリンクの評価を先延ばしするのは得策ではない。リンクの現状を自分で確認するべきである。被リンクのリストを作ってくれる無料の優れたツールが存在するので有効に活用してもらいたい。無料ツールもしくは有料ツールの無料版では全ての必要な機能が用意されているとは限らないので、大規模なリンク構築を行っているなら、少なくとも1つのメジャーな有料リンクツールに資金を投じるべきである。
データを手に入れ、データをエクスポートすることが出来るか、もしくはコピー&ペーストしなければいけないかを調べよう。 総合的にプロフィールを見て、異なる部分(サイトワイド、収益を挙げるキーワードの割合等)に分け、そして、レポートでサイトを確認し、リンクの善し悪しを評価する方法を知っておく必要がある。
ここに用意されているグーグルのウェブマスターガイドラインは、とりわけ違反するつもりなら、熟知しておくべきだ。
一つのツールだけにこだわる必要はない。更新される回数が多いデータベースもあれば、必要以上に情報を提供するツールもあれば、情報が少ないツールもある。
情報を手に入れ、アンカーを少なくともブランド、URL、収益を上げるキーワード、そして、ノイズに整理する必要がある。
この点に関してはジェーン・コップランド氏が綴ったこの記事に勝る説明はない。競合者分析を常に行っていてもいなくても、じっくりと競合者を分析して、自分よりも上位にいる場合、なぜ彼らが優れているのかを把握する方法を知っておく必要はある。うまくいっていない時だけに競合者分析を実施する人もいるが、パニックになった際に冷静に考えることが出来るように、調子が良いときに分析を行うことを私は薦める。
eメールを介したリンクの要請であれ、電話での要請であれ、ゲスト投稿であれ、ソーシャルメディアのつながりであれ、人との接し方を分かっていなければならない。オンラインで接するからと言って、基本的なマナーや礼儀を無視していいわけではない。特定の何かを求めているなら、明記しよう。10本メールを送らなければ何を求めているのか分からないような状況は避けるべきである。欲しいものが手に入らないなら、さらに強調するか諦めるかのいずれかを道を選び、前に進もう。
SEOの関係者であり、オンラインの動向を気にしているなら、大規模なアルゴリズムのアップデートが行われたら気づくはずだ。しかし、そこまでアルゴリズムのアップデートに重点を置いていなくても、SEOMozが良質なリストを提供し、また、グーグルのウェブマスターセントラルブログが変更を分かりやすく説明しているので参考にしよう。何か奇妙なことに気づいたら、「algorithm change」(アルゴリズム更新)で検索しよう。目立つ変化を行われているなら、結果ページに現れるはずだ。
この有益な(そして無料の)ツールのメリットを利用しない理由が私には分からない。自分のブランド、名前、URL、競合者、重要なキーワード等…に自由にアラートを設定することが出来る。
アラートをどのぐらいの頻度で受け取るのか、どのような結果をモニタリングするのか、そして、全ての結果を求めているのか、もしくは、グーグルが最高の結果と考える結果のみを求めているのかを決めることが出来る。アラートのeメールから結果に容易にクリックスルーを実施することが可能であり、興味を持っている何かがインデックスされた際の最新の情報を常に把握することが出来る。グーグルアラートは、素晴らしいものの簡単に利用することが可能であり、しかも、無料で提供されている。
私はグーグルアナリティクスを一部のサイトで利用しているが、その他にも優れたパッケージ製品は存在する。サイトのパフォーマンスを把握するためにランキングのチェックのみに頼るべきではない。
グーグルアナリティクスを必ず使わなければいけないわけではないものの、グーグルから少しでもトラフィックを得ているなら、ウェブマスターツールを利用するべきだ。何かがうまくいかなくなった時、私はまずこのツールを利用する。ウェブマスターツールは、サイトに関する問題点を警告してくれる。また、ユーザーはクロールチェック、新しいリンクの確認、クエリのチェック等、様々な作業を実行することが可能である。
劣悪なリンクと私が思うリンクを何度も指摘している点を考慮すると、誰もが私の意見に同意するとは限らない。しかし、購入した、もしくはネットワークを介して手に入れた以外に明白な理由が見つからないなら、そのリンクは劣悪なリンクなのだろう。
間違いなく正当ではあるものの、リンクが変な場所に配置されていることはよくある。場違いと思えるリンクは、良いリンクではない可能性が高い。スパムリンクに関しては、とにかくガラクタ以外の何でもないサイトに掲載されているリンクが該当する。ペイデイローンからボルティモアの最高のホテルの99本のリンクで構成されたブログロールに掲載された靴の会社に向かうリンクは、スパムリンクである。
様々な検証ソフトが存在するが、優れたリソースを求めているなら、やはりhttps://validator.w3.org/の右に出る者はいない。劣悪なコードでもブラウザ内で(十分に)適切に表示される可能性はあるが、意図した通りに動くとは限らない。コードの方法が分からないなら、そして、見ただけではコードの誤りが分からないなら、検証ソフトの使い方を覚えよう。
この件に関しては、私は常にレックス・スウェイン氏のHTTPヘッダーチェックを参考にする。非www版とwww版の双方でサイトを運営し、301でつないでいないなら、リンクジュースを分割していることになる。移動したページに301を挿入する作業をテクノロジーに詳しい人に頼んだなら、適切に行われているかダブルチェックするべきである。
この件に関しては意見が分かれるが、私自身は301リダイレクトを古いページから最も関連する現在のサイトかホームページに実装する。404エラーはリンクジュースの無駄なので、301を利用し、ページを完全に削除しないようにしている。
リンクを構築を行っているにも関わらず、最近、大きなブランドがペナルティを受けていたことに気づいていないなら、もう少し注意するべきである。 JC ペニー騒動を覚えているのだろうか?忘れてしまったなら、調べ直すべきである。幾つかのメジャーなブログネットワークに対するインデックスの削除においても、同じことが言える。知識は力であり(希望的観測)、トラブルを抱えた人達の情報を常に仕入れておくべきである。
ビングとヤフー!の名前はすぐに思い付くはずだが、調べる価値のある優れたメタ検索エンジンは他にも存在する。個人的にドッグパイルとミリオンショートを気に入っている。 1つのエンジンを見つけたらそれで満足してもらいたくない。他の場所を探していると思いがけない優れたアイテムに出会うことがあり、これにはディレクトリも含まれる。
腰を落ち着けて、突拍子もないアイデアをブレインストームする…これは私が好きなアクティビティの一つである。先日、息子が車の中で突然「タコス、死、プール」と言った。
これこそ常識にとらわれない発見である。グーグルでこの検索をかけて表示されるサイトのほとんどを私は見たことがないはずだ。検索が今まで見たことがないものを返してきたら、それは良い兆候である。
この作業に対しては、私はアイスロケットを好んで利用しているが、他にも同様のサービスは存在する。また、ツイッターで検索を実行する保守的な方法を用いることも当然可能である。これは自分のサイトに関連するコンテンツを書きそうなブロガーに目を光らせ、ゲスト投稿の機会を探る上で有効である。
フォロワーウォンクは、ツイッターでキーワードを検索する際にとても役に立つ。自分のサイトに関連するコンテンツを取り上げているブロガーを見つけることが出来るだけでなく、人気の高いトピックを見つけることも可能であり、当該のトピックに関連するコンテンツを作ることが出来る。
ゲスト投稿を受け入れているサイトを見つける方法、ゲスト投稿を作成する方法、そして、作成した投稿を宣伝する方法を知っておく必要がある。マイ・ブログ・ゲストは、ゲスト投稿を求めている人達、もしくは、ゲスト投稿を行うことを求めている人達をつなげるゲスト投稿のシステムである。
また単純に「guest post」(ゲスト投稿)また同様の用語をキーワード検索に加える手もある。大半のゲスト投稿では、コンテンツまたは略歴欄にリンクを掲載することが認められている。ここにゲスト投稿のリンクのメリットが存在する。しかし、ゲスト投稿がスパムに悪用されている点を考慮すると、優れたゲスト投稿の場を見つける方法、そして、適切なピッチを行う方法を熟知していなければならないだろう。
全てのメトリクスの意味を理解するだけでなく、メトリクスを見ただけでサイトの善し悪しを判断する力が求められる。各種つのツールやプラグインからサイトに対して得られる情報の量は多く、この情報は様々な用途で非常に役に立つことがある。
しかし、ツールとプラグインが何かしらの理由で使えなくなったらどうするのだろうか?その場合、自分で重要なメトリクスをチェックし、リンクに対して、サイトが適切かどうかを判断しなければならない。このサイトはグーグルでインデックスされているだろうか?コンテンツは人間によって作られているだろうか?
Whois 検索を試し、ツイッターでウェブマスターを調べることも、もしくは、ラポーティブを利用することも出来る。私はソースコードでeメールアドレスを見つけたことがある。eメールアドレスをブログに載せないブロガーもいるが、ゲスト投稿を行ったサイト等、他の場所で連絡先の情報を提供している可能性がある。
昔の投稿やサイト(ツイッターが登場する遥か昔)では、ツイート、いいね!、そして、共有に関するソーシャルシグナルはほとんど存在しないはずだが、それでも、コメントの本数には目を光らせるべきである。
新しいコンテンツでは、コメントよりもツイートや共有が目立つかもしれない。なぜなら、読者は実際のブログの投稿以外の場所で投稿について会話を交わすことが多いからだ。新しいコンテンツは、ビジターによって読まれ、楽しんでもらえたことをアピールする必要がある。この件に関して、ダニー・サリバンが、新たなリンク構築としてのソーシャル共有に関する素晴らしい記事を投稿している。是非、目を通してもらいたい。
グーグルがツールバーに表示するランクは、頻繁にアップデートされているわけではない。TBPRを基にサイトを判断しているなら、過ちを犯していることになる。
リンクジュースとは、基本的にあるページから別のページへともたらされるリンクの人気である。nofollowはこの流れを止めるために用いられる。私が今から挙げる例よりも実際は遥かに複雑だが、基本的にはこのような仕組みである(注記: これは実際の公式ではなく、解説するために使っただけである):
ページ Aは10ポイントのリンクジュースを与えることが出来る。このページにはその他のサイトに向かう5本のリンクが掲載されており、各ページは2ポイントのリンクジュースを得る。
ページ Bは10ポイントのリンクジュースを持っている。このページではその他のサイトに向かう10本のリンクが掲載されており、そのうちの5本はnofollowである。nofollowされていない残りの5本のリンクは2ポイントのリンクジュースをそれぞれのページにもたらすはずである。nofollowされたリンクが向かうページはリンクジュースを得ることが出来ない。
ページランクスカルプティングとは、先程私が取り上げたリンクジュースのアイデアを活用して、よりパフォーマンスを高め、他のページがリンクのメリットを得られないように阻止するため、リンクジュースを特定のページに集中させる手法を指す。
過剰な最適化に関する議論の多くは、内部リンクではなく、別のサイトからのリンクを対象にしているため、この取り組みが俄かに注目を浴び始めている。
内部リンクの目的は、ユーザーをナビゲートすることであり、内部リンクの適切なキーワードは、ユーザーにとって筋が通っている場合に提示するべきである。ここにサイトの構築および内部リンクに関する良質な記事が用意されているので、目を通してもらいたい。
nofollowリンクを特定することが可能なプラグインが存在する。しかし、コードを見ただけでも分かる。リンクに rel=”nofollow”が記載されているなら、そのリンクはnofollowされている。
無料のキーワードリサーチ用のツールは星の数ほど存在するが、私が定期的に利用しているツールを紹介する:
私はグラマー/スペリングには厳しい方だが、拙い文章のコンテンツ(ブログの投稿であれ、eメールであれ、レビューであれ、何であれ)を作ると、何かを成功させるために時間を取る配慮がない人だと思われてしまうだろう。
素晴らしいアイデアや主張を持っているものの、文章がひどいためそこまで辿りつけないケースがたまにある。スペルチェックをわざわざ行うにはそれなりの理由があるのだ。また、コンテンツを投稿するためだけにコンテンツを作成しているサイトを見かけることがある。一目で分かる。もともと文章の作成が苦手なら、練習を重ね、素晴らしいライターが書いた作品を読めば、徐々に改善されていくだろう。優れたコンテンツの重要性を忘れずにトレーニングに励んでもらいたい。
私は2つの視点でこの取り組みを考えている: 私が影響を与えることが出来る人を探す取り組みと私に影響を与える人を探す取り組みである。ずっと前からこの取り組みを私は実施しているが、私よりも前から、そして、巧みに実施している人は大勢いる。引き続き学習することが出来るように私はこの人達に注目している。
クラウドブースターはこの取り組みで大活躍する。「インフルエンシャルフォロワータブ」が用意されているためだ。このタブは、ツイッターで誰かが自分をフォローした際に当該のユーザーのフォロワーの人数と共にリストアップしてもらえる。広範なリーチを持つ人の注目を集めたいなら、この機能は有益である。
ただし、影響力が必ずしもフォロワーの人数に現れるわけではない点を肝に銘じておいてもらいたい。フォロワーの人数が少ないからと言って、交流を求めるユーザーを無視するべきではない。ツイッターのメトリクスが示唆するよりも、実際には遥かに影響力が強いことがよくある。私は定期的にツイッターで数名のユーザーと会話を交わしているが、その中にはフォロワーを1000名以上抱えているユーザーはいない。その他のユーザーよりも、彼らから多くのフィードバックが寄せられ、また、交流の実績があるため、何か必要になったら私は彼らにアドバイスを求める。
とてもシンプルだが、害を与える可能性のあるリンクの削除に懸念を抱く人と先日話し合ったことが原因で、ここで取り上げることにした。当該のリンクがトラフィックを送っているかどうかを当該の人物に尋ねたところ、「どうやって判断するの?」と言う答えが返ってきた。グーグルアナリティクスを利用しているなら、トラフィックソースでリファラーを容易に見つけることが出来るはずだ。
リンクを削除することを考えており、多くのトラフィックをもたらしていることに気づいたなら、それがコンバートしているかどうかを確認してもらいたい。コンバートしていないことが分かり、とにかく削除したいなら、削除しても構わない。コンバートしているなら、私ならそのままにしておく。
存在しないページに優れたリンクが向けられ、301リダイレクトを実装していないなら、リンクジュースを失っている可能性がある。これはユーザーエクスペリエンスとしてもマイナスである。サイトに404エラーがあるかどうかを確認するべきである。存在するなら当該のページをリンクチェックツールにかけて、誰がリンクを張っているのか確認してもらいたい。私は頻繁にW3C リンクチェッカーツールを使ってリンク切れ、リダイレクト、そして、その他の問題を確認している。ちなみにこのツールは無料で利用することが可能だ。
存在しないページへリンクが向けられていることが判明したなら、301を挿入するか、リンクを張っているサイトのウェブマスターに連絡を取り、リンクを向けることが可能な場所を指摘する。301を実施しない場合、リンクジュースが失われしまうので、私は後者を好む。
しかし、url.com/thispage.htmlから url.com/thatpage.comに切り換えようとしているものの、500本のリンクが向けられているなら、500本のeメールを送り、要請に応えてもらえたかどうかを確認するよりも、301を挿入する方が時間を遥かに有効に活用することが出来る。
グーグルアラートを自分の名前、サイト、URL等に設定する方法はとても容易である。何かが網に引っ掛かり、リンクが張られていないことが分かったら、好みに応じてリンクを要請しよう。
多くの人々がメンション(言及)し、ツイッターを始めとするソーシャルメディアのアカウントにリンクを張るものの、サイトに直接リンクを張ってもらいたいなら、言及してくれた人にまずは感謝し、サイトに代わりにリンクを張ってもらえるかどうか尋ねる手もある。言及したことで既に贔屓しているにも関わらず、さらに頼みごとをするのは無礼だと感じる人がいるため難易度は高いが、それでもこの方法を賢明に行う方法を知っておいて損はない。
特定の分野にリンクを張っているサイトのリンクを嫌うクライアントは多い。この考え方は別にして、劣悪なリンクの環境とは、優れたリンクをサイトに掲載してもらえたものの、その他のリンクはすべてスパムリンクであり、関連性はなく、ただ単に購入したためにそのサイトに存在する環境を指す。このようなリンクは、グーグルにサイトの価値を低く見せてしまう可能性がある。
また、価値を下げられた、もしくは、インデックスから外されたネットワークもまた劣悪なリンクの環境に該当すると考えられる。例えば、子供服の店をオープンするため、店舗の場所を決めなければならないケースを想像してもらいたい。ストリップクラブの隣の店舗は避けたいはずだが、マクドナルドと子供向けの本屋の近くにスペースを見つけたら、理想的な場所だと考えるのではないだろうか。
グーグルはウェブスパマーやウェブの“劣悪な環境”へのリンクを避けるべきだと主張している。この手のリンクによって自分のサイトのランキングにマイナスの影響が生じる可能性があるためだ。このような考え方は次の2つのケースに該当する。劣悪な環境のサイトにリンクを張りたくもなければ、劣悪な環境のサイトからリンクをもらいたくないはずである。
まず、ネットワークのリンクが同時期に全て作動していることを示唆する可能性がある。ネガティブSEO攻撃を示唆することもある。100%正当ではあるものの(プレスリリースや新しいテレビ番組の広告等)、リンクスパイクが発生した際に詳しい情報を得る方法を理解しておく必要がある。
奇妙なスパイク(急激な増加)が現れるかもしれない。そんな時のためにちょっとした助言を与えておく。誰かがアプローチしてきて、「過去のリンクの一部が害を与えている気がする」と言われたら、私はすぐにマジェスティックを使って被リンクの履歴チェックを実施する。例えば、2008年に奇妙なスパイクが発生していた際、私は何か疑わしい行為が行われているのではないかと考える(ネットワーク?)。
自然なスパイクなのかもしれないが、この状況を確認することで、この人物に尋ねる必要がある質問が判明するのだ。
サイトがURLに全くマッチしないコンテンツを持っているなら(例えばURLがhomemortgage.comで、コンテンツでペットの世話を取り上げているサイト)、間違いなく何かがおかしい。 新しいリンクが次々にもたらされるものの、リンクを得るための取り組みを行っていないなら、チェックする必要がある。
リンク、ネガティブSEO、そして、リンク警告等、最近のグーグルの状況を考慮すると、最大限の用心を心掛けるべきである。
つまり、評価する際はメトリクスだけに頼るべきではない。これは大きな問題である。コンテンツを量産する際に周りが見えなくなることがあり、また、簡単にサイトを分析する方法に過剰に頼る傾向がある。どうやら、じっくり腰を落ち着けて、実際にコンテンツが理に適っているかどうかを確かめることを忘れてしまうようだ。
一目見ただけでは素晴らしいページからリンクを得たようにしか見えない状況に私は何度も遭遇したことがある。サイトとニッチとの関連性は高く、リンクも完璧に見え、ソーシャルシグナルも良好で、継続的に改善を行っているように見えたものの、実際に記事に目を通したところ、ロボットが作ったような文章であったのだ。このタイプのサイトは一見問題ないように見えるものの、トラフィックの長期間のポテンシャルは見込めないだろう。
マルコフコンテンツとは、適当なテキストを与えるためにランダムに作られたコンテンツを指す。 せいぜい英語のネイティブスピーカーではない人物が文章を綴っただけの文章にしか見えないが、実際に意味を理解しようと試みると何かが“外れている”ことに気づく。
リンクを獲得したいサイトを評価をする際は、この点にも注意する必要がある。
コピースケープは無料で利用することが可能であり、どこかで誰かが自分のコンテンツをコピーしているかどうかをすぐに調べることが可能である。また、コピースケープは、投稿しようとしているコンテンツがオリジナルかどうかを確認することが可能なプレミアム版も用意している。コンテンツを盗んだサイトは、盗まれたサイトよりも上位にランクインすると言われており、リンクを構築しようとしているサイトのランキングとトラフィックが落ち始めてきたら、コンテンツの重複をチェックする方法を知っているか否かが大きな違いを生む。
不自然なリンクの騒動が原因で、何か問題が起きると今まで以上にリンクが悪者にされるケースが増えつつある。リンクが問題の原因になる可能性も否定できないが、リンクが実際に問題を引き起こしているのかどうかを確認し、その他の原因を全てチェックする方法を心得ておくことを薦める。
自らリサーチを行っているなら、オペレータは時間の大幅な節約に貢献し、不要な結果を多数削除する上で大いに役立つ。ここに良質なカンペが用意されている。
初めてこのタグに関する記事を読んだとき、とても簡単だと感じたが、実際に動作させるのは思っていたよりも遥かに難しかった。ヴァーヴサーチは、このタグの実装方法に関する分かりやすいアドバイスを送っており、また、SELでもリック・デデジャーネットがrel=authorに関する記事を投稿している。 大量の記事を作成しているなら、このタグをマスターする必要がある。
rel=authorは、信頼できるブランドを構築し、(願わくば)ウェブでの知名度を高めることが期待できる大きなブランドの効果の個人版とも言えるだろう。作品の1つがSERPに掲載されたら、「More By X」リンクが表示され、作者として認証されているその他の作品も表示してもらえる。
通常、フッターのリンクはサイトワイドだが、孤立しているリンクを見かけることもある。サイトワイドなリンクとは、サイトの全てのページに掲載されているリンクを指す。このタイプのリンクは、数年前、リンクを獲得する手段として用いられていた。今でも一部のサイトではリンク構築を行う正当な方法として用いられている。例えば、ブログロールはサイトワイドな傾向があり、関連するブログに掲載されており、理に適っているなら、100%正当だと私は考えている。
しかし、ページの一番下までスクロールした際に、リンクで埋め尽くされた巨大なパラグラフが現れたら、これは良質なサイトワイドとは言えない。サイトワイドは、検索エンジンが容易に検知し、価値を下げることが可能なパターンを生成しているため、理に適っている場合を除き、私はサイトワイドのリンクを追求しない。 一般的に、ページの実際のコンテンツの外側のリンクは、ベストだとは限らない。
サイトワイドのリンクを持っているかどうかを確認する方法を知らない人達が大勢いるため、ここで取り上げることにした。リンクチェックを行うと、全て同じドメインのページがリストアップされるため容易に見つけられるはずである。
サイトワイドを好む人がいないわけではないものの、サイトワイドは、カウントされなくなったと言われることが多く、また、サイトに害を与えるとまで言われることもあるため、多くのリンク構築担当者は、積極的にこのタイプのリンクを獲得しようとはしない。一部のサイトワイドは全く問題ないものの、妥当性を正しく検知することが出来るほどアルゴリズムが洗練されているとも思えない。
ディープリンキングとは、ホームページだけでなく、内部のページにリンクを構築する手法を指す。ホームページのみにリンクを張っていると、サイトには他に良質な情報がないように見えてしまう。これは良いシグナルとは言えない。
ここで詳しく説明されているが、基本的には、同様のコンテンツが他に存在する場合、望ましい方を指定するために用いられる。
クロームでは、右クリックして、View Sourceをクリックする。ファイヤーフォックスでも同じ方法で見ることが出来る。私はこの2つのブラウザを主に利用している。皆さんが利用するブラウザでこの方法が通用しないなら、コードを見ることが出来るまで探しまわろう。コードを見る方法を知らない人は意外と多い。
リンクがnofollowされているかどうかを調べているなら、まずはコードを見る方法を知っている必要がある。プラグインに頼らずに、自力で見つけることが出来るためだ。robotsがブロックされているかどうか(#4を参照)、そして、リンクが適切に動作していない理由を確認する際にもコードを見る必要がある。私の経験上、大半のコードのエラーは、タグを適切に閉じていないことで発生している。
ペナルティを受け、修正を完了したなら、再審査請求を提出することが出来る。ペナルティを受けたものの、何も問題を解決していないなら、グーグルが、詳細を調べる取り組みを忘れてくれることを願い、イチかバチかに賭けて再審査請求を提出するような行為は慎むべきである。
ここで再審査請求を提出することが出来るが、問題を解決していないままなら、提出するべきではない。アルゴリズムのアップデートによるダメージを受けたなら、ランキングを回復するには、変更を行い、次回のアップデートを待つしかない。
この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。
この記事は、Search Engine Landに掲載された「50+ Things Every Link Builder Needs To Know」を翻訳した内容です。
リンク構築に関するトピックを全て書き出したような内容で、さらにどれも短いため、ある程度の知識がないと理解しきれない内容でした 汗。とはいえ、それなりに順番にも意味があり、一気に読む中で「あ、そういえば気にして無かった」「今後はもうちょっと意識したい」と思えるようなものも幾つかあるかもしれません。それでもちょっと長すぎますかね?リンクSEOを気にしている人であれば、時間ある時にチャレンジしてみてくださいませ。
個人的にはマルコフコンテンツという言葉は(Marcov Content)初耳でした。自動生成のランダムコンテンツの意味のようで、つまりワードサラダと同義語でしょうか。Marcovはロシアの数学者の名前から来ているようです。パブロフの犬のようなものでしょうか。。。(多分違う)。 — SEO Japan [G+]
SEO最新情報やセミナー開催のお知らせなど、お役立ち情報を無料でお届けします。