Blogger初期設定で変更する項目一覧
Bloggerの初期設定から設定を変更した項目の一覧です。
Bloggerの設定
・「投稿」の「メインページに掲載する投稿数の上限」
「7」を「10」に変更。
トップページに一覧で表示する件数なので、切りの良い10件にします。
・「フォーマット」の「タイムゾーン」
「(GMT-08:00) アメリカ太平洋時間 – ロサンゼルス」を「(GMT+09:00) 日本標準時 – 東京」に変更。
・「フォーマット」の「日付ヘッダーの形式」
「土曜日, 3月 05, 2022」を「2022/03/05」に変更。
・「フォーマット」の「タイムスタンプの形式」
「3月 05, 2022」を「3/05/2022」に変更。
表示を日本で一般的なものにします。
・「クローラとインデックス」の「カスタム robots.txt を有効にする」
チェックを付ける。
・「クローラとインデックス」の「カスタム ロボット ヘッダー タグを有効にする」
チェックを付ける。
・「クローラとインデックス」の「アーカイブ ページと検索ページ用のカスタム ロボット タグ」
「noindex」のチェックを付ける。
「カスタム robots.txt を有効にする」のチェックを付けない状態のrobots.txtは以下になります。
この状態では以下のページにGooglebot(Googleがインデックスするために来るクローラーと呼ばれるロボット)がアクセスできなくなってしまいます。
ラベルページはGoogle Search Consoleの「カバレッジ」を見ると、「robots.txt によりブロックされましたが、インデックスに登録しました」となってしまうことが多いです。ラベルページはいろんなページからのリンクがあるので重要なページとGoogleが勝手に判断してしまい、robots.txtでアクセスさせないようにした意味がなくなります。
また、その状態ではラベルページはインデックスされますが、robots.txtでアクセスできなくしているので、Googleの検索結果にはタイトルだけで内容は表示されない状態になります。これでは意味が無いので、ラベルページはrobots.txtでアクセスさせて内容を表示させた方がいいです。
「アーカイブ ページと検索ページ用のカスタム ロボット タグ」を「noindex」にしたのはラベルページと同じようなページで、特にインデックスされなくてもいいようなページだからです。ただ、「nofollow」にはしてないので、そのページはインデックスされないけれど、そのページにあるリンク先のページはインデックスされます。
・「サイトフィード」の「ブログフィードを許可」
「完全」を「先頭のみ」に変更。
RSSリーダーなどのフィードを読むためのツールを使うと、ブログに直接読みに来ないでブログの内容を読むことができます。「完全」のままだと、全ての内容が読めてしまうので、ブログを読みに来てくれません。「先頭のみ」にすると、新しい記事が公開されたことと途中までの内容は読めるので、気になった人がブログを読みに来てくれるようになります。
Bloggerの設定
・「投稿」の「メインページに掲載する投稿数の上限」
「7」を「10」に変更。
トップページに一覧で表示する件数なので、切りの良い10件にします。
・「フォーマット」の「タイムゾーン」
「(GMT-08:00) アメリカ太平洋時間 – ロサンゼルス」を「(GMT+09:00) 日本標準時 – 東京」に変更。
・「フォーマット」の「日付ヘッダーの形式」
「土曜日, 3月 05, 2022」を「2022/03/05」に変更。
・「フォーマット」の「タイムスタンプの形式」
「3月 05, 2022」を「3/05/2022」に変更。
表示を日本で一般的なものにします。
・「クローラとインデックス」の「カスタム robots.txt を有効にする」
チェックを付ける。
・「クローラとインデックス」の「カスタム ロボット ヘッダー タグを有効にする」
チェックを付ける。
・「クローラとインデックス」の「アーカイブ ページと検索ページ用のカスタム ロボット タグ」
「noindex」のチェックを付ける。
「カスタム robots.txt を有効にする」のチェックを付けない状態のrobots.txtは以下になります。
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
Sitemap: https://googlebloggertrouble.blogspot.com/sitemap.xml
「カスタム robots.txt を有効にする」のチェックを付け、robots.txtに何も設定しないことで、robots.txtの内容が削除されます。User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
この部分はGoogleAdSenseは全てのurlにアクセスできる。それ以外の全ては「/search」で始まるurlにアクセスできないけれど、他のurlはアクセスできるという設定です。この状態では以下のページにGooglebot(Googleがインデックスするために来るクローラーと呼ばれるロボット)がアクセスできなくなってしまいます。
ページ種類 | url例 |
---|---|
トップページ2ページ目以降 | https://googlebloggertrouble.blogspot.com/search?updated-max=2019-04-24T00:00:00%2B09:00&max-results=10 |
ラベルページ(SEO対策) | https://googlebloggertrouble.blogspot.com/search/label/SEO%E5%AF%BE%E7%AD%96 |
検索(google) | https://googlebloggertrouble.blogspot.com/search?q=google |
ラベルページはGoogle Search Consoleの「カバレッジ」を見ると、「robots.txt によりブロックされましたが、インデックスに登録しました」となってしまうことが多いです。ラベルページはいろんなページからのリンクがあるので重要なページとGoogleが勝手に判断してしまい、robots.txtでアクセスさせないようにした意味がなくなります。
また、その状態ではラベルページはインデックスされますが、robots.txtでアクセスできなくしているので、Googleの検索結果にはタイトルだけで内容は表示されない状態になります。これでは意味が無いので、ラベルページはrobots.txtでアクセスさせて内容を表示させた方がいいです。
「アーカイブ ページと検索ページ用のカスタム ロボット タグ」を「noindex」にしたのはラベルページと同じようなページで、特にインデックスされなくてもいいようなページだからです。ただ、「nofollow」にはしてないので、そのページはインデックスされないけれど、そのページにあるリンク先のページはインデックスされます。
Sitemap: https://googlebloggertrouble.blogspot.com/sitemap.xml
この部分はurlの一覧されているSitemapがどこにあるかの指定です。Google Search Consoleでサイトマップを直接設定できます。また、BingもBing Webmaster Toolsでサイトマップを直接設定できるので、GoogleとBingにサイトマップを設定していれば必要ありません。・「サイトフィード」の「ブログフィードを許可」
「完全」を「先頭のみ」に変更。
RSSリーダーなどのフィードを読むためのツールを使うと、ブログに直接読みに来ないでブログの内容を読むことができます。「完全」のままだと、全ての内容が読めてしまうので、ブログを読みに来てくれません。「先頭のみ」にすると、新しい記事が公開されたことと途中までの内容は読めるので、気になった人がブログを読みに来てくれるようになります。
blogger