knowledge

SEO面からサイトをチェックする際に使える最先端テクニック

SEO面からサイトをチェックする際に使える最先端テクニック

今回はアメリカ発祥のSEO分析ツール「seoClarity(エスイーオークラリティ)」のサイトを監視する機能について紹介します。

これらの機能を利用して自社・競合サイトを監視することにより、自社サイトの異常や競合サイトの変化をいち早くキャッチアップして施策に繋げることができるようになります。

このseoClarityを利用した分析手法はSEOの本場であるアメリカで活躍する著名な企業のスキルの高いSEO担当者と一緒に取り組んできた長年の経験に基づくもので、担当者が広く使っているアプローチです。

このようなインデックス化、アクセシビリティ、検索意図、そしてクロールエラーの解決など、みなさんの技術的な監査をより高度なものにするために役立つ先進的なテクニックをご紹介します。

【注】今回の記事では、seoClarityの機能を用いてご紹介していきます。

インデックス化

定期的なクロールを設定する

Webサイトは定期的に新しいページが追加されたり、様々な変更が行われ、それに伴い新しいエラーや問題が生じやすくなります。

seoClarityを利用して 定期的にクロールしてページの状態を監視することにより、エラーの発生を早い段階で把握し、状況の変化を監視することができます。

これにより、迅速な対応やレポート作成の際に役立つ情報を得ることができます。

最初に、定常的なクロール調査実施スケジュールを決めておくことをお勧めしています。

理由としては、スケジュールを設定することで、各調査の前後の変化を比較できます。

サイトに新しい機能が追加されたり、定期的にサイト更新が行われる場合は、そうした開発スケジュールに合わせて調査日を設定します。

それ以外の場合は、チーム内での開発・変更ペースに応じて、週次、2週間ごと、または月次でクロールを実行するようにします。

クロールの設定の仕方

クロールを設定し、基準となるデータを収集します。

このデータはサイトに加えた変更や更新の影響を評価する際、基準となるためとても重要です。

また、このデータは、以下のような形で活用が可能です。

  • 現在の開発上の課題点を発見し、担当チームに伝える
  • 変更前の基準データを設定しseoClarityからサイトの変更通知を行う、
  • 経営陣に、サイトの改善状況を共有する

XMLサイトマップのクロール

GoogleやBingなどの検索エンジンにXMLサイトマップを送信してインデックスを促進させることができますが、seoClarityもXMLサイトマップのクロールを行うことができます。

XMLサイトマップによるクロールを実施することで、XMLサイトマップに含まれるすべてのURLが最新のものとなっているか、さらには検索エンジンが最も重要なページを識別し、インデックスを確認できます。。

サーバエラー(2xxのステータスではないもの)が見つかった場合、このプロセスにより、エラーをすばやく特定することができます。

XMLサイトマップは、最新であり、関連するすべてのURLが含まれていることが重要です。

XMLサイトマップのエラーを特定することは、設計、内部リンク、その他解決する必要があるエラーを発見する上で有用です。

具体的には、サイトマップを利用したクロールで以下のような問題を特定することに焦点を当てていきます。

  • ステータスコードが200番以外のページ
  • カノニカルが正しく設定できていないページ
  • クロールされたページ数と実際のページ数との不一致
  • インデックスの問題、特に、サイトマップ上のページ数とGoogleがインデックスしたページ数の関係。以前は、「site:domain」による検索(下記の画像を参照)を利用してかなり正確な数字を得ることができましたが、何年も前から、インデックスされた実際のページ数を隠すようになりました。解決策の1つは、Googleのインデックスステータスレポートで提供されるインデックス付きURLの数を確認することです。難易度が高くなりますが、Rスクリプティング言語  を活用してサイトが現在どの程度インデックスされているか、より正確に読み取る方法について、Paul Shapiroが作成した記事を参照するのも良いでしょう。こうしたレポートには、BotClarityの集計データを利用することもできます。

サイトの問題を診断するためにクロールを行う

seoClarityでは、高度な技術的問題を特定するためにサイトをクロールする機能もあります。サイトの問題を診断するためにクロールを実施することで、ロードに失敗したりアクセスできないといった外部/第三者のソースからのコンテンツの取り込みに関する問題を特定できます。

エラーには様々なものがあり、サイト固有のものである場合も多くなっています。

  • seoClarityの「Clarity Audit」機能を使用すると、XPATH、CSS、特定のDIV_IDおよびDIV_CLASSをクロールできます。これは、特定のエラーを診断しようとしている担当者にとって有用です。たとえば、私たちのクライアントは、サイト全体で新しいコンテンツを立ち上げ、コンテンツ配信ネットワーク(CDN)経由でコンテンツをロードしました。コンテンツがCDNからサイトのページに読み込まれた際に問題が明らかになり、その後順位にも影響がありました。
    追加のコンテンツブロックは特定の<div>タグによって識別可能でした。これにより、クロールを作成し、どのページに<div>タグが含まれているか、どのページに含まれていないか、両面から確認することができました。
  • クローラ活用の鍵は、上記に示した事例のように、新しい記事がサイトに追加されるときに属性を識別できるようにすることです。監査を行った際、公開した記事のエラーがゼロとなっており、それらのページが良い方法に沿っているかを確認したいと考えるかもしれません。

たとえば、サイトやページがインデックスに登録されていない場合、最も一般的な原因は、ページに使用されているrobotsメタタグやrobots.txtファイルでdisallowを使用していることです。

seoClarityでは、クローラがrobots.txtファイルに従ってクロールし、ページが誤ってブロックされていないかをチェックするよう設定でき、状況を確認することが可能です。

サイトのページまたはディレクトリが許可されていない場合は、robots.txtファイルのDisallow:の後に記載されています。

たとえば、ランディングページフォルダ(/ lp /)がrobots.txtによりインデックスをしないよう記載されている場合、そのディレクトリにあるすべてのページは検索エンジンによるインデックスが禁止されます。

また、自社サイトにおいて実際にはインデックスさせたかったにもかかわらずnoindexタグがページに設置されている場合など、seoClarityはrobotsメタタグ情報を収集してこうした問題を特定することができます。
検索エンジンに、ページ全体のリンクをたどらないように指示することができます。

これにより、クロールバジェットを、インデックスさせたい最も重要なページのみに限定することができます。

noindexタグが設置されていたため、担当者がサイト全体に渡りインデックスを 削除してしまったケースを私たちは目にしています。

先述のようなクロールに関する機能と、アラートを設定し通知を受け取る機能を組み合わせることで、あるコンテンツについてインデックスが解除されないようにしたり、ユーザーに見せたいコンテンツをインデックスさせることが可能になります。

SEO担当者が頻繁に確認する指示内容には、noindex / indexとnofollow / followの記載の2つが挙げられます。

何もせずともデフォルトで設定されるindex/followは、検索エンジンのbotがこのページの情報をインデックスし、このページのリンクをたどることを意味します。

Noindex / nofollowは検索エンジンのbotにページの情報をインデックスに登録しないように指示し、合わせてこのページのリンクをたどらないようにします。

これら基本的な情報を押さえておけば、Clarity Auditsを利用して新規のクロールを作成し、問題を診断し、サイトのVisibilityを評価することができます。

Visibilityの評価

最も重要なSEO戦略の1つは、可能な限り最良のエクスペリエンスを提供するために、サイト内のサイトとコンテンツにアクセスできるようにすることです(逆に検索エンジンにとっては、コンテンツのインデックス化ができるようになるということです)。

戦略上最も重要ですが、逆に実行するのが最も難しいものでもあります。

クローラがウェブページを見つけると、Googleのシステムはブラウザのようにページのコンテンツをレンダリングします。

seoClarityでは、Googlebotを模倣してページを分析し、ページへのアクセスやインデックスの作成を妨げる問題を特定できます。

クローラがあなたのサイトにアクセスできない場合、seoClarityによってブロックの原因となるエラーを特定でき、そのページへ確実にアクセスできるよう対処することが可能です。

検索Visibilityは時間の経過とともに変化します。seoClarityで順位分析機能を使用することで、特定の期間の順位変動をより深く知ることができます。

ページの診断

SEO担当者は、seoClarityの調査機能”リサーチグリッド”を利用して、あるキーワードについてランク入りしているURLを調査したり、サイト上にアクセシビリティやインデックス化の問題がないか診断することが可能です。

このツールはランキングページ数とページランキングの低下を表示することが可能です。

また、特定のURLタイプをフィルタリングして、影響を受けるページの種類を特定することもできます。

これにより、時間を節約でき、担当者がすばやく問題を見つけることができるようになります。

エラーページ

次に、サーバーステータスコードのエラーやリダイレクトを行うページをサイトで検索し、その理由を評価します。可能な場合は、これらのリダイレクトを修正するか、サーバーの問題を解決してページにアクセスできないようにします。

サイト監査を実行して、迅速に監視するための追加領域を特定することも検討することをお勧めします。

検索インテントの評価

Googleは最近、検索意図に関する追加データを公開しており、Google検索がさらに洗練されるにつれ、優先順位付けの意義がこれまで以上に重要になっています。

上級技術者は、ページをインテントで分割し、そのユーザーの意図を具体的に満たすページを作成したいと考えています。

seoClarityの「コンテンツフュージョン」機能では、ページを確認し、あるページが「インフォメーショナル」、「トランザクショナル」、「ナビゲーショナル」または「ロケーション」ベースの検索タイプのうちの何に当たるのかを識別できます。

例えば、「赤い口紅」は、ほとんどがトランザクショナルキーワードと捉えられます。

しかし、Googleは実際には結果を主に「インフォメーショナル」な検索として表示します(下記参照)。

以下の検索結果の内容は主にニュースコンテンツであるため、「インフォメーショナル」な検索であることを示しています。

より高度な利用をしている担当者は、検索意図に基づき、各キーワードや各ページに対して、ページタグとキーワードタグを作成しています。

これにより、追加のコンテンツが必要なページや、製品についての記載を加える必要のあるページなどを抽出することも可能です。

一度定義してしまえば、特定の検索インテントに関するコンテンツを最適化し、特定の検索キーワードに対して、検索意図にそぐわないURLが表示されるといったエラーをすばやく特定できます。

クロールバジェットの問題を解消する

検索エンジンのクローラが各サイトを分析する時間は限られたものです。クローラビリティに関する潜在的なエラーには、クロールバジェットの浪費や、一部コンテンツへのアクセスできない、と言ったことが挙げられます。

利用可能なクロールバジェットを最大限に活用するため、一部の監査データを利用し、クローラの障害となる要素を取り除くことも重要です。 seoClarityはこれに対して2つの機能を提供しています。

Bot Clarity」機能 は、以下のような方法で検索エンジンbotのクロール状況を監視します。

  • サイトをクロールした際に問題があった場合、Googleは再訪するURLを記録します。
  • 私たちがクライアントとともに取り組んできた経験から、GoogleはあるURLをおよそ4~5回訪問して情報を収集していると考えられます。
  • Bot Clarityでは、問題の特定のために作成したページ種類別に単一のURLまたは複数のURLに関する訪問頻度を確認できます。

検索エンジンのbotがあなたのサイトをどれだけ深く分析しているかを確認することも大切です。

サイトの最下層に達する前にクロールがとまってしまう場合は、botがスキップしたコンテンツまでの到達経路を短縮すべく、サイト構成を見直します。

同様に、Bot Clarityでは、なりすましbotの活動を特定し、ネットワーク帯域幅が浪費されるのを防ぐこともできます。

クローリング検」機能 は、特定のbotの挙動を再現するために利用することができ、クロールバジェット内でサイト全体にアクセスすることを妨げている要因を抽出することが可能です。

下記のような問題点がこの検査によって明らかになります。

  • 内部リンク切れ
  • 長いリダイレクトチェーン
  • APIコールアウト
  • アクセスできないコンテンツ
  • botが特定のサイト階層にアクセスすることを妨げるようなrobots.txtファイルのエラー

内部リンク

SEO担当者が内部リンクにあまり注意を払っていないケースが散見されますが、内部リンクは、検索Visibilityを高める上で非常に役立つものです。

検索エンジンがよりよくサイトをクロールできるようにするだけでなく、あるページについて、順位を上げたいキーワードを検索エンジンに伝えることもできます。

サイト監査ツールでは、一般的に内部リンクに関する多数の問題を分析できます。

たとえば、Clarity Auditsでは、次のようなものが可能です。

  • 内部リンクのないページがないか
  • 内部リンクが多すぎるページがないか
  • 存在しないURLに対するリンクがないか
  • その他の内部リンクに関する問題(例:相対パスの利用など)

内部リンクをクロールしてエラーを発見し、サイト全体をいち早く改修することもできます。

上記のような情報により、以下のことが可能です。

  • 存在しない、あるいはリンク切れとなっている内部リンクURLを更新する
  • リンク切れを修正し、クローラビリティを改善する
  • リンクによってページ間でリンクバリューが渡っているかを確認する
  • サイトのカテゴリ分けとクロールバジェットの消費状況を改善する

Ajaxまたは“重い”JavaScriptエラーの特定

AjaxとJavaScriptの扱い方は、ここ数年で大きく変化してきました。

過去に、Googleは「?_escape_fragment_」の使用を受け入れていましたが、サイトではまだAjaxサイトでエスケープフラグメントを利用しているページがインデックス落ちしていると報告されています。

ますます多くのサイトがAjaxや重いJavaScriptに移行するにつれて、上級技術者たちはできるだけ早くエラーを特定する必要が出てきています。

AjaxとJavaScriptをクロールできるClarity Auditsのような高度な監査ソフトウェアは、エラーの診断に役立ちます。

サイトがプレレンダリングを使用しているかどうかを直ちに確認し、プレレンダリングURLを追加してサイトクロールを実行します。

このようにして、レンダリングされたものと実際のサイト上のものでどのような問題が存在するかを評価できます。

同様に、Google Search Console内のFetch as Googleを使用して、JSエンジンで表示されたコードを、検索エンジンに表示されるとおりに分析することができます。

表示されていないコンポーネントがある場合は、クローリング検査を実行し、なぜ表示されないのかを分析し、解決策を探ることができます。

おわりに

上記の方法は、高度な技術担当者がよく使っている手法の一部ですが、よりよいサイト監査プロセス実現のために学ぶ手法はこれだけにとどまりません。

この記事では、問題を解決し検索エンジンでのパフォーマンスを最大化する上で、いかにエラーをすばやく特定し、検索Visibilityをチェックするか、その方法についてご紹介しました。

これらのワークフローは、顧客がサイトにアクセスしたときにより良い検索エクスペリエンスを提供していく際にも有用だと考えます。

本稿が皆様のお役にたてば幸いです。

 

※本記事は弊社と業務提携している米国seoClarity社のブログを翻訳し記載しております。

The Most Advanced SEO Techniques for Performing Technical Site Audits

https://www.seoclarity.net/blog/how-to-execute-a-site-audit

この記事のライター

CroJa 編集部

おすすめの記事

WEB担当者必見!!

実務に役立つ情報をメルマガで無料配信しています。

メルマガ登録はこちらから
メルマガ登録はこちらから

関連する記事