robots.txtは、ロボット型の検索エンジンに対して動作制御を行うためのファイルです。
検索エンジンのクローラー(ロボット)のWEBページのへのアクセスを制限することができます。
そのため、robots.txtによるクロール制限は「クロール最適化」として用いられるSEO施策の一手段であり、SEOにおいて重要です。
Webサイトにrobots.txtを設置し、 クローラーに対し情報を正確に伝えてクローラービリティーを高めることで上位表示に寄与します。
SEO最新情報やセミナー開催のお知らせなど、お役立ち情報を無料でお届けします。