chocotakaの日記

日々技術的な事で学んだ小さな事をを自分なりに書いていきます

seo最適化 robots.txt

robots.txtとは

robots.txtはクロール最適化の手段の一つで、検索結果に必要のないページへのクロールを制御し、重要なページのみを認識してもらうようにしてSEOを改善するものであります。

不要なページに対するクローラーのアクセスをブロックすることができる。 クローラーを回す必要のあるページに多くのクローラーが回るようになるためサイト全体のSEOが改善されます。

robots.txtの書き方

User-Agent:*
Disallow:

User-Agent

どのクローラーの動きを制御するかの指定で、*は全てのクローラーに指示します。 例えば、User-Agent:Googlebot-imageだと画像用クローラーのみに指示することができる。

Dissallow

クローラーのアクセスを制御するファイルを指定します。 全サイトをブロックするなら/。特定のページをブロックするなら/hogehoge.htmlのようにページを指定します。

最後に

robots.txtが必ず必要かどうかというと、これを設定したからといってすごい効果があるというわけではないですが、少なからず設定していないよりは良いので、seo更に向上したいと考えているならやってみる価値はあると思います。