ログ解析レポートを作る上で、私が大事にしている6つのこと

Google Analyticsなどの高機能なツールの登場により、ログ解析という業務も随分と一般化してきました。しかし一方で、多種多様なデータを扱えるようになったが故に、何をどう分析していいかわからない、という悩みを抱える人も増えたのではないでしょうか。

ログ解析ツールのオペレーションを解説した書籍などは多数存在しますが、ログ解析の難しさとは、必ずしも作業をフォーマット化できないことにあります。なぜなら、業態やWebサイトの特性で、プライオリティや判断基準が変わり、それによって深堀すべきデータ、無視していいデータが大きく変わるからです。つまり、ビジネスの核心に近づく分析をしようとすればするほど、ケースバイケースの判断が重要になってきます。

ここでは、ログ解析歴5年の私が、クライアント向けにログ解析レポートを作る際に、そういったログ解析の難しさに立ち向かうため、主に気を付けている6つの点をまとめてみました。

1:データは必ずセグメントする

ログ解析に不慣れな担当者は、サマリーされた情報だけで成否を判断しがちです。しかし、統合され、平均化されたデータを眺めていても、有益な示唆を得られることはほとんどありません。膨大なデータの中に隠されたヒントを掘り起こすためには、データを細かくセグメントする作業が必要です。ログ解析の大半はこのセグメント作業といっても過言ではありません。

例えば、ログ解析ツールでは、流入に使われている検索キーワードの総合ランキングが表示されますが、ここから具体的な課題や対策に繋がるアイデアが出てくることはほとんどありません。検索キーワードを分析するのであれば、指名ワードか一般ワードかをまずはセグメントし、一般ワードであれば、ニーズの種類に合わせてさらにセグメント化していきます。このセグメント化されたグループごとに見ていくと、直帰率や訪問あたりのPVや閲覧時間、リピート率に違いがあることが分かってきます。このようにセグメントしてはじめて、有望なターゲットや気付かなかった顧客ニーズを、具体的に想像することができるようになります。

これは検索キーワードの例ですが、参照元サイト、ユーザ属性、コンテンツなど、あらゆるデータに対しても同様のセグメントを行います。まとまったデータでは隠されていたWebサイトやビジネスの特性が、セグメント化することで、露わになってきます。

セグメント作業は、もちろん解析ツール上の機能だけで行えることもありますが、私の場合、エクセルなどにデータを移し、クライアントのビジネスやWebサイトの特性などを考慮して、手動で作業を行います。セグメント化は、人間の経験と知恵とセンスが試される領域で、ツールが自動的にソートするデータだけでは不十分なことがほとんどです。しかし、自動化できないからこそ、この作業を入念に行うか、怠るかで、せっかく収集したデータが活かされるか、無駄になるかを大きく左右しているとも言えます。

2:数字の正確さに固執せず、傾向を重視する

数字が見えていると、どうしても情報の正確さにこだわりがちですが、実際、細部の数値の正確さは、それほど重要ではありません。本当に重要なのは、その情報がいかに正確であるかではなく、そのセグメント特有の傾向がきちんと反映されているか、ということです。この傾向はわずかなアクセスで影響を受けるようなものではなく、もっと大きなグループの中で、共通して見える傾向である必要があります。

データそのものは、人間の本当の心理や行動の本質を完全に掴めるものではなく、あくまで推論を促すためのものにすぎません。そこには多種多様なノイズが入ってしかるべきであり、逆にいえば、細かな数字の違いで上下するような小さい情報を眺めていても、有益な示唆が生まれてこないことも多いです。

もちろん、大雑把に、雑に捉えていい訳ではありませんが、例えば、セグメント作業をする際、いかに正確に、いかに正しく、というところにこだわって時間を費やしてしまうのは得策ではありません。時間はいくらでもなくなり、結果、コストに見合わない作業になってきます。丁寧なセグメント作業とは裏腹に、細かい誤差やグレーゾーンはある程度割り切って分析を行うという思い切りの良さも、ログ解析には必要です。

3:事象が普遍的なのか、例外的なのかを見定める

データをセグメント化して、セグメント毎の傾向を見ていくと、思ってもいなかったような示唆を得られることがあります。時には、リニューアル前の仮説をひっくり返すような仮説が見えてくることもあるでしょう。しかし、そういった仮説は、本当にターゲット共通でいえる普遍的なことなのか、あるいはある特殊な状況における例外事例なのかは、理解しておく必要があります。

特に、母数の少ないセグメント内での平均値は、ある特定のユーザの特殊な行動によって大きく数字が変わることがあります。例えば、10訪問程度のセグメントグループで、1訪問あたりのページビューが10ページを超えていても、それはある特殊なユーザが一人で100ページ近く閲覧し、全体の平均値を押し上げているようなこともあります。

そのことを見過ごし、そのセグメントグループを今まで気付かなかった新しいターゲット層であると判断してしまうと、改善の方向性を大きく見誤ってしまいます。各セグメントから見えてくる傾向が、本当に共通していえることなのか、ある条件によって成り立っている特殊な事象なのかは、明確に意識しておかなければなりません。

ちなみに、こういった例外的な行動をするユーザをどう扱うかというのは、データマーケティングの難しい部分です。例えば、クレームをいう顧客というのは少数派で、クレームに合わせて製品やサービスを改変していくと、本当のターゲットを見失ってしまう、ということのはよく言われることです。一方で、イノベーションに繋がるようなユーザの潜在的なニーズは、平均的な数値ではなく、ある特殊な事象からこそ見えてくるものである、ということもよく言われるます。

いずれも事実です。そして、こういった特殊なユーザが、無視してよいユーザなのか、注目すべき潜在ユーザなのかは、残念ながらログの数字を見ているだけでは判断できません。より多角的に分析し、結果的にはリーダーによる独断的な意思決定によってのみ証明されるようなこともあります。

そういった難しさを秘めているという点も踏まえて、セグメント化されたデータの普遍性/特殊性というのは、いつも強く意識しておく必要があるといえます。

4:矯正された数値ではなく、本来の力を評価する

トラフィックを増大させるために、広告を出稿することは非常によくあります。あるいは、展示会などのイベントと連動して、Webサイトへの流入を促すことも頻繁に行われていることでしょう。しかし、こういった「矯正されたトラフィック」と、Webサイトが自然に集めているトラフィックを混在させて分析すると、Webサイトが本来持っているパフォーマンスを見誤ってしまいます。

例えば、ある旅行業界のWebサイトでは「平日よりも週末にWebサイトに訪問する」という仮説に基づき、毎週金曜日の夕方に、集客のためのキャンペーンを打っていました。当然、金曜日の夜から週末にユーザが多く流入することになります。データだけを見ていると、「週末にWebサイトに訪問する」という仮説が正しいように思えてきます。しかしこれは、仮説に基づく流入施策があった上での結果です。実際、このWebサイトで、キャンペーンからのトラフィックを全て排除して分析してみると、実は週末にトラフィックが特別集中している訳ではなく、むしろ平日の昼および夕方以降のトラフィックもかなり存在することが判明しました。このような事実は、矯正されたトラフックを混在させて分析していても、知ることができないことです。

またあるWebサイトは、CV率が0.5%しかなく、それを改善するために、Webサイト内の動線を見直そうという話になっていました。しかし、バナー広告やリスティング広告からの流入を排除してCV率を検証してみると2%以上あり、広告からの流入が極端にCV率を下げていることが判明しました。こういった場合には、当然ながら、Webサイト内の動線改善よりも、広告の出稿の仕方を見直した方がいい、という判断になってきます。

ログ解析は、広告などの効果検証にも絶大な力を発揮します。しかし一方で、トラフィックが自然流入なのか、矯正されたものなのかで、Webサイト自体の評価が大きく変わり、改善の方向性が全く異なってしまうことも少なくありません。

ログを解析する際には、単純にセグメントされた数字を見るのではなく、Webサイト本来のパフォーマンスを見極めるというのも、非常に大事な視点です。

5:ログ解析ツールだけにとらわれない

他社が作成した解析レポートを見る機会がたまにあるのですが、多くの場合、ログ解析ツールから得られることしか書かれていません。有料サービスということで、ある意味仕方のないことかもしれませんが、Webサイトの分析は、解析ツールでできることの中で行わなければならない、というルールはどこにもありません。本質的な目的が、Webサイトのパフォーマンス向上であると考えると、むしろログ解析の内容だけにとらわれていてはいけないともいえます。

例えば、トラフィックの改善を考えているのであれば、解析ツールの中の流入キーワードの情報だけで判断するのではなく、SEO系ツールの被リンク数の増減を確認したり、あるいはGoogle Trendで検索動向をチェックしたりすることで、より意味のある分析にすることもできます。解析ツールでは苦手としている定性的な分析は、Twitterなども併用して収集することもできます。

ログ解析からは、確かに多くのヒントを得ることはできますが、本当に大事なことがそこから見えてくるとは限りませんし、ログ解析だけでは見えないことも数多く存在します。ログ解析はあくまで手段の一つであり、ビジネスに影響を与える本当の改善策を導き出すのがゴールであるからには、ログ解析ツールだけにとらわれず、様々なツールや分析手法を併用して、検討することも重要です。

6:必ず仮説とアクションに結びつける

経験の浅い担当者が陥りやすいのが、ログ解析のデータをまとめただけで終わらせてしまうことです。しかし、データから見える断片的な考察を列挙しただけの解析レポートでは、片手落ちです。

なぜログ解析をするのかというと、Webサイトの課題や問題をアクセスログから導きだし、具体的な改善策を導きだすためです。そこで必要になるのが、データから導き出される仮説です。検索エンジンからの自然流入が増えないのであれば、ボトルネックとなっている箇所をデータから推測し、仮説を立てるのです。そしてその仮説から、具体的に取り組むべき改善策を導き出してはじめて、ログ解析という作業が一旦ゴールになります。

いくら丁寧にログを分析し、セグメントされた情報が綺麗に並んでいても、「で、どうすればいいの?」という質問に答えられないうちは、その解析レポートはまだ価値を生み出していない状態なのです。

ちなみに弊社では、ログ解析レポートの作成は、Webサイトの立上げや設計にかかわったメンバーが必ず行います。これは、背景にあるビジネス戦略、Webサイトの設計意図を理解していなければ、有用性のある仮説や具体的な改善策が導き出しにくいと考えているからです。

また、企画や設計をした本人が、ログ解析を行うことで、自身が考えたことが本当に実現しているのか、あるいは思ったほど成果を上げていないのかを、つぶさに確認し、企画力、設計力の向上に繋げることができるとも思っているからです。別の見方をすれば、リリース後のログ解析をしない企画者、設計者というのは、いくら経験を積んでいっても、ただ単に机上の空論作りを研ぎ澄ませていくだけになりがち、とも感じています。

まとめ

ログ解析という作業で陥りがちなのが、ツールに使われて、自動化できる部分だけで済ましてしまうことと、ログ解析の本当の目的を忘れ、解析そのものを目的にしてしまうことです。そのことを回避するための6つのポイントともいえるものでしたが、いかがでしたでしょうか。ログ解析とは根気を必要とする頭脳労働で、決して簡単な作業ではないかと思いますが、この記事でログ解析を少しでも効率よく、有意義に行うことができるようになれば、幸いです。