SEOの情報は日々、誰かが、どこからか発信しておりますが、Googleからのアナウンスは特に注意して追っていきたいものです。特に、ジョン・ミュラー氏は、Q&A動画やTwitterなどで有益な情報を発信してくださっています。今回の記事は、ジョン・ミュラー氏によるアドバイスの中でも特に重要なものをまとめたSearch Engine Journalの記事を紹介いたします。
この記事は、Googleのサーチ・アドボケートのジョン・ミュラー氏によるアドバイスの総まとめである。これらを参照し、ぜひ、あなたのSEOに関する知識に磨きをかけていただきたい。
Googleのサーチ・アドボケートとして、ジョン・ミュラー氏は多くのSEOに関するアドバイスを共有してくれている。その量は、全てを把握することに困難が生じるほどだ。
毎週、ミュラー氏は、SEOの担当者に手を差し伸べており、Q&Aセッションで多くの質問に答えている。この記事で紹介するアドバイスの多くは、オフィスアワーのハングアウトで紹介されたものだ。
また、ミュラー氏が不定期に公開している検索についての解説動画からも、アドバイスを抜粋している。
この記事では、Googleの内部から提供されるこれらの情報を、ランキング要素をはじめ、いくつかのカテゴリーに分類して紹介している。
あなたが見過ごしたアドバイスも含まれているかもしれないため、ぜひ、ご参照いただきたい。
目次
かつてGoogleは、コンテンツを順位付けする際、アルゴリズムが考慮する要素は200以上ある、と述べていた。
しかし、アルゴリズムの仕組みについて誤解を招いたり、誤った印象を与える可能性があるといった理由で、公式にこの数字を使わないようにするとしている。
我々は、200以上のランキングシグナルといった表現を用いないようにしている。なぜなら、このような数字を用いることで、誤解を招くこともあると感じているからだ。すなわち、「Googleはあらゆるランキングシグナルが記載されているスプレッドシートを持っており、それを重要度ごとにソートし、その結果を見ている」といったような誤解だ。これは、実情とはかけ離れている。
Webサイトに向けられたリンクの総数は、Googleとは関係がない。
関連するWebサイトからの1本のリンクが、品質の低い何百万ものリンクよりも、大きな影響を持つことは考えられる。
やろうと思えば、何百万ものWebサイトから何百万ものリンクを設置することは可能だろう。そして、Googleはそれらをすべて無視する。
もしくは、1つのWebサイトから1つの良質なリンクが設置されてるかもしれない。Googleにとって、それは非常に重要なサインとなる。なぜなら、その1つのリンクがあるからこそ、このWebサイトは関連性のあるWebサイトであると扱うべき、となるからだ。このように、総数は全く関係のないものであるのだ。
Webページの公開日を変更したところで、大きな変更がなければ、Googleの検索結果における順位の改善にはつながらない。
検索においては何の変更もなく、そのページの日付と時間を変更したからといった理由で、こうしたページの順位が変わることは絶対にない。
検索結果の順位において、重複コンテンツがWebサイトにとって悪影響となることはない。Googleは、それらのコンテンツの片方を検索結果に表示し、もう片方を無視する、といった対応を取る。
複数のページで同一のコンテンツがある場合、それら全てを検索結果に表示することはない。それらの中から1つのコンテンツを選び、それを表示させる。そのため、重複コンテンツはネガティブなシグナルというわけではないのだ。多くの場合、いくつかのページでコンテンツが共有されることは、普通のことと言える。
Webサイトの見せ方は、検索結果でのビジビリティに影響を与えうる。
こうした小さな違いが、ユーザーがあなたのWebサイトをどう認識するかにおいて、重要な役割を担うこともある。例えば、あなたのWebサイトが金融関連のWebサイトであるとしよう。そして、ユーザーが「情報は良いが、見せ方が素人のようだ」と思った場合、これは、あなたのWebサイトがどのように認識されているかを反映している。そして、長期的に見れば、検索結果にも反映されることが考えられるのだ。
Googleのアルゴリズムによる検索結果のランキングに、カスタマーレビューは使用されていない。
カスタマーレビューはローカル検索のランキングには使用されているが、オーガニック検索のランキングには使用されていない。
私が知る限り、Web検索のランキングにおいて、Googleは顧客の数やレビューを使用していない。もちろん、こうした情報を使用して、リッチリザルトとして検索結果に表示させるということはあるが。
Webサイトの品質に関わる課題を修正した後、Googleの検索結果に変化が表れるまで、1か月ほどかかる場合もある。
どのくらいの期間がかかるか。そうだね。答えることが難しい質問だ。大規模なWebサイトのすべてのページを再クロールするには時間がかかるだろう。特に、Webサイトの構造を変更するなど、Webサイト全体にかかわる大きな変更の場合は。
純粋にテクニカルな視点から考えてみても・・・。そうだね、1か月ほどではないだろうか。
Googleは、他のコンテンツと同様、ブログのコメントもインデックスする。つまり、ブログのコメントが検索結果のランキングに貢献していることも考えられる。
それゆえ、ブログのコメントのすべてを削除してしまうと、ランキングに影響を与える可能性もある。
最終的には、あなたの考え次第であると思う。我々の視点から話すと、我々はコメントをコンテンツの一部として見ている。多くの場合、それらがコメントであるということは認識できているため、扱い方は変える必要がある。しかし、最終的には、ユーザーがこうしたコメントに基づいてあなたのページを発見した場合、あなたがこうしたコメントを削除してしまうと、そうしたコメントに基づいて我々があなたのページを発見することはできなくなる。
これまでの認識とは異なり、ミュラー氏は、Core Web Vitalsはランキング要素として、ただのタイブレーカー以上のものであると認めている。
Core Web Vitalsはランキング要素であり、タイブレーカー以上のものではあるが、関連性に置き換わるものでもない。Webサイトによっては、それを強く感じる場合もあるし、弱く感じる場合もあるかもしれない。。。
Core Web Vitalsについて留意しておくべきこととして、Core Web Vitalsはランダムなランキング要素以上のものであり、ランク付けされた後(ユーザーが実際にWebサイトを訪れた際)、Webサイトのユーザービリティに影響を与えるものであるということだ。
Core Web Vitalsのデータは、28日ごとに収集され、更新される。これは、Search ConsoleやPage Speed Insightsのようなツールでレポートされるスコアは、Googleが過去(およそ)28日間で測定したレポートということを意味している。
それゆえ、Core Web Vitalsのスコアが改善された場合も、ランキングシグナルとしての影響が見られるには、時間がかかる。ミュラー氏は、これについての変更があるのか、タイムラグは常に発生するものになるか、まだ決定していないと述べている。
完全に決まったかどうかは把握していないが、つまり、データにはタイムラグが発生することもある。我々が十分なデータを収集するまで、一定の期間、待たなければならない。
そのため、スピーディーなアップデートのための最適化ではなく、全体図を明確に理解するといった類のものになるはずだ。私としては、リアルタイムの変更ではなく、もっとゆっくりとしたものになると考えている。
Core Web Vitalsのスコアは実際のトラフィックから算出されるが、トラフィック自体がスコアに影響を与えることはない。
数百万人のユーザーが見ているか、そうではなく、例えば、数千人のユーザーが見ているか、そうしたことは関係がない。Webサイトへの純粋な訪問数は、Core Web Vitalsの要因とはならず、また、一般的にランキングの要素にもならない。
ローカル検索で良い順位に表示されるために、Googleマイビジネスは、Webサイトの最適化と同じくらい重要である。
ローカルサービスやローカルビジネスを主に見ているようだね。そうであれば、しっかりとしたGoogleマイビジネスのエントリーの設定が必要になるはずだ。なぜなら、こうしたクエリの場合、検索結果にわずかながらも表示されやすくなるからである。
実際、「近くの○○」といったクエリの場合、「近くの〇〇」といったワードでの上位表示を狙う必要はない。なぜなら、「近くの○○」といったクエリは、世界中で発生するからであり、あなたのWebサイト独自のものではないからだ。
そのため、あなたがすべきことは、ページ内で明確にロケーションを記載することである。こうすれば、そのロケーションの場合、あなたのWebサイトやページが関連しており、さらに、ユーザーがそのロケーションにいるということを、我々が認識できるのである。
競争力のある価格は顧客を引き付けるかもしれないが、検索結果におけるECサイトのランキングには影響を与えない。
純粋にWeb検索の観点から言うと、Webページの内容から価格を認識し、ランキング要素として我々が使用するということはない。
そのため、価格が安い方のページの順位を上げる、といったことは起こらない。そんなことは、本当に意味のないことだと思っている。
単語数が検索結果における順位に影響を与えるといった説は、事実ではない。
記事が短かったとしても、長い記事と同様の情報を提供しているのであれば、検索者に対し同程度の価値を提供していると、Googleは認識する。
ミュラー氏が言うように、とあるページが他のページよりもコンテンツの単語数が多い、といった理由で順位をつけることは、まったく意味をなさない。
我々は、単語数をランキングに使用していない。もしそれが、ライターがより良い記事を書けるようになるものであれば、あなた自身のガイドラインとして、単語数を使用するのは問題ないだろう。
Googleは、検索結果で表示されるページタイトルを生成する方法をアップデートしたが、オリジナルのタイトルの重要性が以前よりも低下していないことを、ミュラー氏は認めている。
十分に練られたページタイトルは、Googleが検索結果で書き換えたとしても、検索結果のランキングに使用される。
将来的にどのようになるかはわからないが、少なくとも現時点においては、タイトルタグに書かれている内容を、我々はランキングに使用する。
Webサイトのすべてを置き換えるようなものではないが、我々は一つの要素として使用している。検索結果に表示される際、あなたが対策しているキーワードが見切れてしまったとしても、我々がそれを使用していることについては変わりはない。
品質評価ガイドラインでE-A-T(専門性、権威性、信頼性)が紹介された以降、E-A-Tは直接のランキング要素である、という考えが生まれた。
それは事実ではないことを、ミュラー氏は認めている。また、「E-A-Tスコア」というものがないことも、認めている。
GoogleはE-A-Tスコアを持っており、それは、5つのリンクと、これとこれと・・・、に基づいている、といったことはない。
そうではなく、我々は時間をかけてアルゴリズムを改良しようとしており、品質評価者が我々のアルゴリズムをレビューしてくれるようにしており、彼らはまさにそれを行っている。
つまり、重複する箇所はあるかもしれないが、特定の要素をSEOの要素として使用するといった、技術的な要素であるわけではないのだ。
何か特定の要素が、他の要素以上に、何かを決定するというような、単一のランキング要素は存在しない。
あるランキング要素は、特定のクエリにおいて大きな比重を占めることはある。しかし、その要素が、他のクエリではそれほど重要ではないといった場合もある。
この巨大なネットワーク内で、特定の要素が決定的な要素であると言うことはできない。また、特定のWebサイトやクエリによっては、まったく異なる役割となることもあるため、単純に、この要素は10%の役割を果たしている、と言うこともできない。
他のWebサイトやクエリでは、決定的な要素となる場合もある。しかし、これらをまとめ上げることは、非常に難しいことなのだ。
見出しタグ内のテキストは、Googleに強力なシグナルを送る。そのページが何についてのページなのか、何を上位に表示させたいのか、などを伝えるものだ。
ページ上のテキストに関して言えば、見出しは強力なシグナルであり、そのページのどの部分が、このトピックについてのものであるのか、といったことを伝えるものだ。
H1タグ、H2タグ、H5タグ。それらをどのように使ってもかまわない。それほど大きな問題ではない。
それよりも、このトピックについてはこのページのここの部分である、というような、一般的なシグナルを伝えてほしい。また、このページの他の個所は別のトピックである、というようなことも伝えてほしい。
特定のキーワードがドメイン内に含まれているからといって、そのWebサイトが、そのキーワードで上位に表示される可能性が高くなる、といったことはない。
ドメイン内のキーワードはランキング要素ではないのだ。
あなたの会社名やブランドに関連する言葉を含めたドメインのほうが、ずっと良いだろう。
ドメインにキーワードが含まれているWebサイトである、ということが、そのキーワードにおいて他のWebサイトよりも関連性がある、といったことを意味することはない。
つまり、ドメイン内にキーワードを含める必要はない、ということだ。
ミュラー氏は、タイトル、見出し、小見出しなどの目立つ個所に、注力しているキーワードを含めることを強く推奨している。
そのページが何についてのページなのかを伝えたいのであれば、それらを可能な限り露出させることを勧める。
記事の最下部に一言だけ含める、といったことはやめよう。タイトル、見出し、小見出し、画像のキャプション、などを活用しよう。
こうしたことは全て、ユーザーとGoogleがあなたのページに訪れた際、そのページのトピックを明確に理解できるようにするための作業だ。
品質の低いコンテンツを改善するべきか、削除するべきか、という質問を受けた際、ミュラー氏は、改善するのが最善だろう、と述べている。
しかし、そうしたコンテンツを改善するつもりがないのであれば、そのまま削除すべきだろう。
自身のWebサイト、自身の名前と共に公開したいと思う、良いコンテンツであれば、そのまま残しておくべきだろう。そのコンテンツが古いということが、そのコンテンツの内容が悪いということを意味するものではない。
しかし、該当のコンテンツを読み、それが自身にとって恥ずかしいものであり、オンライン上に残しておきたくないと思うほど内容が悪いのであれば、改善するか、削除するかのどちらかを選択すべきだろう。
Webページは、アバブ・ザ・フォールドに、少なくとも、いくらかのユニークコンテンツを掲載すべきだ。
異なるページ間で重複したコンテンツがあることは致し方ないが、少なくともページの上部にはユニークなコンテンツを掲載するようにしよう。
我々にとって重要なことは、アバブ・ザ・フォールドに、ある程度のユニークなコンテンツがあることだ。パナーや一般的なヒーロー画像をページの上部に掲載することは、まったく問題ではない。しかし、アバブ・ザ・フォールドのコンテンツは、そのページ固有のものであるべきだ。
ユーザー体験に直接の影響を与えるため、スペルや文法のミスをGoogleは品質における問題であると認識する。
我々はそのページが何についてのページなのかを理解しなくてはならないため、スペルや文法のミスについてはグレーゾーンであると言える。
ページ内のテキストに多くのエラーがあるため、我々がそのページの内容を認識できない場合、より大きな課題となる。
また、我々は本当に品質の高いコンテンツを発見しようとしているが、多くの文法や技術的なミスがあることが理由で、低品質なページに見えてしまうこともある。
多くの場合において、壊れたHTMLよりも、スペルや文法のミスのほうが優先度が高いかもしれない。
新しいページが公開された場合、そのページがインデックスされるまでにかかる時間は、数時間から数週間の間である。
ミュラー氏は、優れたコンテンツであれば、多くの場合、1週間以内でインデックスされると考えているようだ。
例えば、動画とブログ記事など、異なるフォーマットで公開された同一のコンテンツは、重複コンテンツとはみなされない。
Googleは、動画で話されている内容を文字に書き起こし、それをブログ記事の文章と比較する、といったことはできない。
まず、我々は動画内のテキストを分析し、それらをWebページにマッピングする、といったことは行っていない。ブログ記事と同じ内容の動画があったとしても、それらは別物である。ユーザーは何かを読む目的でGoogleを利用するかもしれない。また、何かを視聴したり、聞いたりするためにGoogleを利用することもある。これらは、それぞれ異なるものである。
我々は、この動画のテキストはこのブログ記事と同一であるため、どちらかを表示させない、または、片方だけを表示させる、といったことをしていない。そのため、ブログ記事と同じ内容の動画があったとしても、まったく問題ないことだ。
メインのコンテンツが価値を提供するものであれば、そのページに多くのアフィリエイトリンクがあったとしても、問題はない。
コンテンツの内容が有用であれば、Webサイトは1つのページに対し、自由にアフィリエイトリンクを設置することができる。
上限はない。我々からすれば、アフィリエイトリンクが悪いものであったり、問題があったりするものであると言っているわけではない。重要なことは、そのページに有益なコンテンツを掲載する必要がある、ということだ。こうした観点で我々は考えている。
Webサイト内にどの程度のアフィリエイトリンクが設置されているか、ということは全く関係がない。また、記事の長さに対するリンクの数の比率といったものも、まったく関係がない。
他のソースから埋め込まれた動画と、Webサイト上でネイティブにホストされた動画は、同一の価値である。
基本的には同一だ。例えば、動画用のCDN(content delivery network)を持つことは一般的であるが、技術的には、それらは別のWebサイトとなる。我々の観点では、ユーザーにとって上手くいく仕組みであり、コンテンツがアクセス可能で適切にインデックスされるのであれば、問題は全くない。
1つのページの内部リンク数が多すぎる場合、その価値が薄れてしまうことがある。
多すぎる内部リンクは、効果があるよりも、害となる場合が多いのか?という質問に対し、ミュラー氏は次のように述べている。
Yesでもあり、Noでもある。我々は、ページの構造をより良く理解するために内部リンクを活用する。Webサイトの構造を理解しようとする際、様々なページが存在しており、その全てのページがWebサイトの他の全てのページへのリンクが設置されていたとしよう。その場合、全てのページに完全な内部リンクが設置されていることになり、そこには構造といったものが存在しなくなる。
そのため、ページランク、オーソリティ、その他のシグナルとは関係なく、Webサイトの明確な構造を提供できていない、ということになる。この場合、検索エンジンがそのWebサイト内の個々のページのコンテキストを理解することが難しくなる。以上が、この件についての私の見解である。
ミュラー氏が、テキストではなく、画像の使用を推奨することは珍しいが、その例が、メインコンテンツ内にチャートを掲載する場合である。
HTMLでチャートをコーディングすることによるメリットは存在しない。わかりやすいalt属性を付けた画像であれば、まったく問題ない。
そのチャートでやりたいことによって異なるが、こうした類のものは、画像を追加し、わかりやすいalt属性を付与することで問題ないだろう。
そのチャートに重要な情報が含まれているのであれば、その情報をAlt属性に記載しよう。そうすれば、我々はテキストとして認識することができ、画像を見ることができないユーザーに対しても、その情報を提供することができる。しかし、一般的に、画像を使うことで問題はないはずだ。
内部リンクは、GoogleがWebサイト内でより多くの記事を発見する手助けとなる。そのため、アンカーテキストは、リンク先のページが何についてのページなのかを伝える、コンテキストを提供すべきである。
内部リンクは、我々にコンテキストのシグナルを与えてくれるものだ。つまり、基本的には、私のWebサイトのこの個所ではこのトピックについての情報を発見できますよ、と伝えるものなのである。そして、それが、内部リンクのアンカーテキストとして、あなたが使用すべきものだ。
外部リンクにおいても、他のWebサイトへのリンクを設置するのであれば、同じことが言える。つまり、なぜユーザーはこのリンクをクリックし、そのWebサイトへ行くべきなのか、そこでどのような情報が追加で得られるのか、といった内容を提供するのである。
ページ内で長いアンカーテキストを使用することは問題ではない。むしろ、役に立つこともある。
Googleは、リンク先のページについての理解のために、アンカーテキストを用いている。
アンカーテキストが長いほど、より多くのコンテキストをGoogleに伝えることができる。
その情報は、そのページのランキングの際、考慮される情報となる。
我々は、アンカーテキストの長さについて、特別なことは行っていないと思う。しかし、我々は、アンカーテキストを、個々のページに対しての追加のコンテキストを提供するための方法として使用している。
長いアンカーテキストを使用することで、我々に僅かながらもより多くの情報を提供する場合もある。ただの、異なるキーワードの集合、という場合もあるだろう。
皮肉を交えた調子でコンテンツを作成することで、読者の興味を引くことは出来るかもしれないが、Googleのポイントにはならない。
Googleのアルゴリズムは、皮肉を誤解することもあるため、重要な情報を伝えるためのコンテンツを作成する際には、使用を避けた方が良い。
皮肉を含めた表現があった場合、我々がそれを誤解したり、理解ができないといったリスクは明らかに存在する。
特に、Googleとユーザーに対し、正確なメッセージを伝えることが重要である場合は、可能な限りわかりやすい文章にするべきだろう。
例えば、医療系の情報を伝えるような場合、皮肉を含めた表現は避けた方が良いかもしれない。
エンターテインメント系の話題などの場合は、それほど大きな問題とはならないはずだ。
Googleのリッチリザルトは、特定の種類の構造化データのマークアップを組み合わせることができるが、それ以外のものは組み合わせることができない。
検索結果において、組み合わせることができるリッチリザルトの種類と、そうでない種類がある。例えば、レシピとレーティングの場合、1つのリッチリザルトのタイプで組み合わせることができる。
しかし、私の記憶が正しければ、FAQとハウツーの場合は1つのリッチリザルトのタイプで組み合わせることができないため、どちらか1つを選んで表示しなければならないはずだ。
あらゆるページがトップページから1クリックで到達できるような、人工的なフラットなURLの構造は必要ない。
URL内のスラッシュがいくつあるか、Googleがそれを考慮することはない。GoogleはURLをコンテンツの識別子として扱うのであり、Webサイトの構造を理解するための手段としては扱っていない。
人工的なフラットなディレクトリ構造にする必要はない。この観点から述べると、ユーザーが認識できるディレクトリ構造であり、ユーザーが入力出来たり、一部をコピーして貼り付けたりできるようなものであれば、問題はない。URLを書き換えたりするなどして、ユーザーからそうしたURL構造を隠す必要はない。
404エラーのあるWebサイトは珍しいことではない。そのため、Googleは、404エラーをネガティブなランキング要素として扱っていない。
例え、Search ConsoleがそのWebサイトの40%のページが404であると表示したとしても、心配する必要はないだろう。
我々は、それを異常とはみなさない。品質のシグナルのようなものとして扱うことはないだろう。404エラーを我々が問題として見るのは、トップページが404エラーを返す場合だろう。この場合、そのWebサイトが本当に存在しているかどうかわからない、と我々は考えるかもしれない。
しかし、Webサイトの一部が404であっても、致し方ないことだろう。技術的な問題であり、仕様がないことだ。
ドイツの場合では.deのような、国別コードトップレベルドメイン(CCTLD)は、その国の検索者のジオターゲティングのために絶対に必要なものではない。
いや、絶対に必要とされるものではない。
一般的に、ジオターゲティングを行う場合、2つの方法が存在する。
1つ目は、国別コードトップレベルドメインを使う方法であり、ドイツでは.deとなる。
2つ目は、ジェネリックトップレベルドメインを使用する方法であり、Search Consoleでジオターゲティングの設定を行う。
例えば、.com、.net、.info、.euなどである。
この中でどれを選んでも問題なく、あとは、ジオターゲティングをドイツに設定するだけで良い。
技術的な修正のみで、検索結果の順位を改善することは難しい。
Googleによる評価を得るためには、一定のレベルの品質が求められ、それは技術的な修正のみで達成できるものではない。
Webサイトの品質は、技術的な修正で達成できるものではない。あなたのWebサイトをGoogleにもっと真剣に見てもらいたいのならば、本当に、本当に、品質の改善が必要となるのだ。
URLの長さは、どちらのバージョンのURLが正規のURLであると決定するために、Googleが使用する軽微なシグナルである。
他の条件がすべて同一であれば、Googleは短いバージョンのURLを選択する可能性が高い。
非常に僅かではあるが、我々はURLの長さを正規化のために使用している。例えば、url.htm?utm=greencheeseandhamとurl.htmの場合、他の全てが同一であれば、我々はurl.htmを正規のURLとして選択するだろう。そのため、短いURLのほうがSEOにとってはより良いように思えるかもしれないが、実際は、副次的な効果に過ぎない。
Webサイトをリニューアルする際、URLを変更してしまうと、改良よりも害になってしまうこともある。
Webサイトに変更や改善を加える際、URLを同一のままにするようにしよう。
URLを変更する場合、Googleは新しいページとしてクロールする可能性があり、検索結果でのランキングという意味では、ゼロからのスタートとなってしまう。
Webサイトを改善する際、同時に発生する複数の事柄がある。そのため、そこで起こっているすべてを正確に把握することが難しい場合もある。
しかし、Webサイトをリニューアルする際、気をつけてほしいことは次の事項だ。
つまり、可能な限りURLを同一に保ち、URLの構造を変更させないということだ。
また、内部リンクも可能な限り同一の状態を保とう。
さらに、ページのコンテンツとレイアウトも可能な限り同一な状態を保とう。
構造化データはそのページが何についてのページであるのかを、Googleに伝えるための手助けとなる。しかし、SEO担当者は検索結果のランキングに大きな影響があると、構造化データに頼りすぎるべきではない。
何故だろうか?
なぜなら、構造化データは軽微なシグナルだからである。
そのページをどのようなキーワードで表示させたいのか、それを明確にGoogleに伝えるためには、メインコンテンツを通じて伝えるべきだ。
構造化データによるヒントのみで、どのようにして順位付けをするのだろう?構造化データは非常に軽微なシグナルである。構造化データについて心配するのではなく、よりわかりやすいコンテンツを作成するようにしよう。
GoogleはH1タグの使用を1回のみにすることを推奨しているのだろうか?いや、そんなことはない。
パブリッシャーは、自由にH1タグの使用回数を決めることができる。
1つのページに対し、H1タグは何度使用してもかまわない。制限はなく、上限や加減も存在しない。
H1タグが1つであれ、5つであれ、そのWebサイトの順位においては、まったく問題がない。
他のWebサイトにゲスト投稿する際、自身のWebサイトへのバックリンクも設置するのであれば、そのリンクにはnofollowタグを設置する必要がある。
これは、他のWebサイトからのゲスト記事を自身のWebサイトに掲載し、そのWebサイトへのバックリンクを設置する際も同様だ。
Googleは、ゲスト記事を、そのWebサイトのプロモーションとみなすため、そのコンテンツ内のリンクを自然なリンクとはみなさない。
それゆえ、リンクスキームへの関与をGoogleに疑われることを防ぐために、nofollowタグを設置すべきだ。
問題となる箇所は、リンクについてである。コンテンツやリンクを提供しているのであれば、それらのリンクはシグナルを渡すべきではなく、rel-sponsoredやrel-nofollowを付与すべきだろう。より広範囲のオーディエンスにリーチするための手段として考えることは、問題ない。
基本的に、そこに設置されているリンクが「自然な」リンクであっても、ゲスト記事内にリンクがある場合は、nofollowを付与すべきだ。
これは、まったくもって、新しいことではない。これについての手動アクションについて、新しい計画を練る必要もない。こうしたことを、我々はアルゴリズムによって把握することができている。
Webサイトにマークアップする構造化データには、主に2つの種類がある。
1つはJSON-LDであり、もう1つはmicrodataだ。
Googleはそのどちらもサポートしているが、おススメはJSON-LDである。
現在、我々はJSON-LDを好んでいる。新しい構造化データの多くが、JSON-LDを支持しているように思う。そのため、我々もJSON-LDを好んでいるのだ。
Googleは推奨してはいないが、ページのメタタイトルにキーワードを詰め込むことは、検索エンジンのガイドラインに違反しているわけではない。
かつては、このような施策はキーワードスタッフィングとみなされ、検索結果の順位の下落を招く、という考えがあった。
ミュラー氏によると、それは事実ではないようだ。
ウェブマスターガイドラインに違反しているわけではなく、問題を引き起こすようなものでもない。我々が関連性を少しばかり良く理解することができるため、より適切なタイトルが設定されれば、ものごとが改善されるかもしれない、といった程度だろう。
タイトルにおける最大の改善点は、ユーザーが実際に探しているものと合致するタイトルを作成することだろう。そうすれば、「これは私が探していたものと完全に一致する」とユーザーが思うため、検索結果で実際にクリックされやすくなるのではと思う。
ミュラー氏は、SEOが廃れてしまうほど、検索エンジンが進歩することはないと考えているようだ。
Googleが機械学習を駆使し、SEOがなくても良いコンテンツが上位に表示されるようになるのではないか、という懸念は、彼のこの言葉により払拭されている。
機械学習を駆使し、Googleのアルゴリズムが進化し、あらゆるWebサイトを自動的に理解するようになり、その結果、SEOが廃れて誰も必要としなくなると、多くの人が懸念していると思う。しかし、そういったことは実際には起きないだろうと私は考えている。
ページエクスペリエンスアップデートがローンチされた今、Webサイトの最適化を行う正しい時期であると、ミュラー氏は述べている。
Webサイトを手助けできる優秀なコンサルタントは、多くの対価を得られるだろう。もし、あなたがこうした仕事を好み、CDN、プラグイン、フレームワークのセットアップなどを習得しているのであれば、自身のスキルを磨き、高い報酬を得る最適な時期であるはずだ。
Webサイトの順位を上げるための解決策が、SEOではない場合もある。ミュラー氏は、下記のように述べている。
SEOの解決策がない場合もある、ということは覚えておいてもらいたい。6年間は長い時間であるし、Webも、Google Newsも、その他のあらゆることも大きく進化している。
技術的な問題でない場合も、リンクを大量に購入するだけでは解決しない場合も、Webサイトの戦略が時代遅れであるという場合も、全て考えられる。
モバイル・ファースト・インデックスへの移行は、Googleが、デスクトップ版ではなく、モバイル版のページをデフォルトでインデックスすることを意味している。
別々のURLのWebサイトの場合は、m-dotのバージョンがインデックスされるようになる。
モバイル・ファースト・インデックスへの移行は、デスクトップ版ではなく、モバイル版のページを我々がインデックスに用いるということだ。多くのWebサイトで、この変更はすでに発生している。すでにモバイル版のWebサイトがインデックスされている場合は、特に何もすることはない。
Google Discoverからのリファラルトラフィックは可変する。そのため、安定した供給減としてそれに依存しないことが重要である。
Discoverは特定のクエリとは結び付かないものである。どれほどのユーザーがこのトピックに興味があるのか、どこで表示される可能性があるのか、などはわからないため、Google Discoverに期待すべきことを述べるのは非常に難しい。
Google Discoverでの多くのビジビリティを獲得できたのであれば、それは素晴らしいことだ。ただし、それはすぐに変化してしまうものだということを認識することが重要だろう。
デジタルPRによってリンクを構築することを、ミュラー氏は肯定的に見ている。スパムではないことも明言している。実際、テクニカルSEOと同程度に重要である可能性もある。
デジタルPRの取り組みは好意的に見ている。それが、スパム的な手法のリンクビルディングと同じように見られることは残念である。おそらく、多くの場合において、テクニカルSEO以上に重要かもしれない。
モバイルからの検索か、デスクトップからの検索かによって、個々のユーザーのニーズが異なる検索もあり、これはランキングにも影響する。
デスクトップとモバイルのランキングが異なるのは、普通のことである。
スピードが要因であるかもしれないし、モバイルフレンドリーが要因であるかもしれない。
また、検索結果に表示される様々な要素が要因であることもある。
例えば、モバイルで検索している場合、ローカルの情報をより求めることだろう。なぜなら、あなたは外出中であるからだ。
一方、デスクトップで検索している場合は、検索結果画面に画像や動画が表示されることが求められるだろう。そのため、我々は、異なる検索結果のタイプを組み合わせて表示させる傾向があるのだ。
こうした理由により、モバイルとデスクトップでは、個々のページにおいて、順位やビジビリティが異なることもある。
これは正常な状態であり、我々のランキングの仕組みの一部である。コンテンツのインデックスに関わるテクニカルな側面と結び付けて考えることではない。
他のWebサイトでのコンテンツの再公開やシンジケーションによって、ターゲットキーワードであなたのWebサイトが表示される可能性を低くしてしまうこともある。
シンジケーションや再公開は悪いアイデアである、とミュラー氏は述べている。
コンテンツを再公開する場合、それは重複コンテンツとなる。多くのオーディエンスにリーチすることが目的である場合は、問題はないだろう。しかし、特定のクエリであなたのWebサイトだけを上位表示させることが目的である場合は、シンジケーションと再公開は悪いアイデアである。目標を設定し、その目標を達成する手助けとなる方法を選択しよう。
上位表示を達成するために全てのWebサイトが同じステップを踏む必要がある、といった意味では、検索は厳密な科学ではない。
Googleで上位表示を達成するためには、複数の方法が存在する。あらゆるWebサイトが同じ設計図に従う必要はない。
どのページがどのクエリでランキングされるべきか、といった意味で、絶対的な真理は存在しないということを覚えておいてほしい。
つまり、あらゆるWebサイトが同じことをする必要があるわけではなく、上位表示を達成するためには複数の方法が存在し、たった1つのランキング要素に盲目的に従うことはないのである。
Googleがロールアウトするコア・アップデートは、Google Discoverで表示されるコンテンツにも影響する。
コア・アップデートがローンチされた後にトラフィックが増減した場合、検索結果の順位に変化がなければ、Google Discoverでの変化が要因であるかもしれない。
我々は、Web検索で使用している品質アルゴリズムと同様のものをGoogle Discoverでも使用している。Web検索でコア・アップデートが発生した場合、Google Discoverでも変化が見られることはよくある。これらは、まったく無関係なものではない。
例え、それらを検知していたとしても、GoogleはWebサイトの全てのページをインデックスするわけではない。
20%のページがインデックスされないという状況はいたって普通のことである、とミュラー氏は述べている。
インデックスに関して覚えておいて欲しいことは、Webサイトの全てをインデックスしないことは普通のことである、ということだ。
大規模なWebサイトであれ、中規模や小規模のWebサイトであれ、インデックスは変動するものである。
インデックス数は上がることもあるし、下がることもある。しかし、Webサイトの全てを100%インデックスすることはないだろう。
そのため、100ページのWebサイトの80ページがインデックスされているといった場合、なにか修正が必要な問題というわけではないだろう。
意図的に新しいページを検索結果に表示させないようにする、「サンドボックス」なるものは存在しない。
また、Googleは新しいコンテンツを好むという理由で、新しいページの順位を上げるといった「ハネムーン」も存在しない。
新しいページが公開されると、Googleはそれをどの順位に表示させるべきかを推測する。
この推測が不正確な場合もあり、その結果、最初は上位に表示されていたが、突然、順位が下がってしまうといった状況が起こりうる。
Googleは新しいページを検索結果に表示させないようにしているという、SEOの業界でサンドボックスと呼ばれる状況である。しかし、これは事実ではない。
また、ハネムーンと呼ばれるものもある。新しいコンテンツが公開され、それをGoogleが気に入り、上位に表示させようとするものだ。
これも事実ではなく、Googleが新しいコンテンツの評価を上げたり下げたりすることはない。
ただし、我々にもわからないことであるため、仮説を立てなければならないのだ。
その仮説が正確であり、時間が経っても変わらないことはある。
しかし、仮説の順位から少し上げたり、下げたりして、落ち着くこともある。
トラフィックが低いことが、そのページの品質が低いということを意味しない。
他のページほどにトラフィックを獲得していなくとも、そのページは有益であり、高品質である可能性がある。
そのため、目指している量のトラフィックを獲得していないからといって、そのページをWebサイトから削除しないようにしよう。
トラフィックの低さが、品質の低さとほぼ関係しているWebサイトもあるが、全てのWebサイトがそうであるわけではない。
Webサイトの上位階層にあるが故、トラフィックを獲得しているページもある。そのWebサイトのテールページも同様に有益ではあるが、対象のユーザーが少ないといった場合もある。
その結果、トラフィックがあまり多くないのだ。
我々の観点からすれば、このようなWebサイトは有益であり、高品質である。
私は、トラフィックが少ないからといって、そのページを削除することはしないだろう。
SEOにはまだまだ可変する領域が多くある。Googleのジョン・ミュラー氏は、そうした仕組みを理解することを手助けしてくれる方である。
毎週行われるライブ放送のQ&A、日々発信されるツイート、時折行われるRedditのフォーラムへの投稿、Webにおけるランダムなインサイト。それら全てを追うことはなかなか難しい。
そこに、我々の価値がある。
Search Engine Journalでは、ミュラー氏やそのほかのGoogle検索に関わるチームによる最新の動向を記事にしているため、ぜひ参照していただきたい。
改めて、こうしたまとめを見てみると、ジョン・ミュラー氏は数多くのアドバイスと発信していることがわかります。もちろん、そのすべてを丹念に記憶する必要はないと思いますが、自身のWebサイトの現状や直面している課題に合致している場合、非常に有益な情報となるはずです。情報取得ばかりに時間をかけてしまうのは本末転倒ですが、効率的に取得しながら日々の業務に活かしていければと思いました。
この記事は、Search Engine Journal に掲載された「57 SEO Insights From Google’s John Mueller」を翻訳した内容です。
SEO最新情報やセミナー開催のお知らせなど、お役立ち情報を無料でお届けします。