SEOコンサルティングサービスのご案内
専門のコンサルタントが貴社サイトのご要望・課題整理から施策の立案を行い、検索エンジンからの流入数向上を支援いたします。
無料ダウンロードする >>
この記事でわかること
robots.txtは、ロボット型の検索エンジンに対して動作制御を行うためのファイルです。 検索エンジンのクローラー(ロボット)のWEBページのへのアクセスを制限することができます。 そのため、robots.txtによるクロール制限は「クロール最適化」として用いられるSEO施策の一手段であり、SEOにおいて重要です。 Webサイトにrobots.txtを設置し、 クローラーに対し情報を正確に伝えてクローラービリティーを高めることで上位表示に寄与します。
目次
ある不動産・建設関連事業者の支援では、サーバー移行後に自然検索流入が急落する事態が発生しました。原因調査の結果、移行先サーバーのデフォルト設定で「Disallow: /」(全ページクロール禁止)のrobots.txtが配置されていたことが判明。テスト環境では意図的にクロールをブロックしていた設定が、本番反映時にそのまま引き継がれていました。Google Search Consoleの「robots.txtテスター」で即座にブロック状態を確認し、正しい設定に修正。修正後2週間でインデックスが回復し、順位も元の水準に戻りました。robots.txtは「一度書いたら触らない」ファイルではなく、サイト変更のたびに確認すべきSEOの生命線です。
A. robots.txtはクロールを制御しますが、インデックス削除を保証するものではありません。外部リンク経由でURLが知られている場合、クロールせずにインデックスに残ることがあります。確実にインデックスから除外するにはmeta noindexを使用してください。
A. Google Search Consoleの「設定」→「robots.txtの確認」で、特定URLがブロックされているかをテストできます。サイト変更後は必ずこのツールで確認することを推奨します。
SEO最新情報やセミナー開催のお知らせなど、お役立ち情報を無料でお届けします。
