Web解析の功罪3つ
Web解析ツールを使っていると、使っていることで変なスパイラルに入ってしまうことがあるんですよね。
それをいくつかピックアップしてみたいと思います。
1:データに埋もれてしまうこと
最近のWeb解析ツールは非常に優秀で、様々なデータを取得することが出来ます。しかし、それが足かせになってしまう場合もあるんですよね。
つまり、データが多すぎて何を参照して良いかが分からなくなってしまったり、判断をつけられなくなってしまうことがあるんです。
ちょっと前に大和證券のCMで利用されていましたが、決定回避の法則というのがあります。
これは、選択肢が増えすぎることで何も選べなくなってしまったり(決定回避の法則)、選択肢が広がるといつものものを選択してしまったりするものです(現状維持の法則)。
こういったものが判断を鈍らせてしまう場合があります。これが意外と自分が陥っているときには気づかなかったりするんですよね。
2:上位リストを使ってしまうこと
PVのTOP10とかってWeb解析ツールでは非常に出しやすいレポートの1つだったりします。しかし、実際にはそこに問題はあまりないんですよね。
ほとんどは予想できる結果であったり、PVの上位で言えばそれは良いページが上位表示されるだけであって、問題点はそこにはないんです。
むしろ問題点はそこに表示されないページにあるわけです。しかし、簡単に出せてしまうことで、それを出しただけで満足してしまうことがあります。
「そのリストは改善を行うために有用であるか?」を常にあたまの隅に置いておく必要があります。
3:絶対値をみてしまうこと
LPOなんかを行っていると直帰率なんかを気にするようになります。以前、参加したセミナーでも質問が挙がっていたのですが一般的に直帰率がどのくらいが適切なのか?ということを気にしてしまう場合があるんですよね。
しかし、サイトはそれぞれ特性があるわけで、目的も違うわけです。だから、他サイトと比較しても意味がありません。
直帰率の絶対値なんかを気にするよりも、「改善する前と後でどれだけ変化があったのか?」といった視点の方がはるかに重要です。
「うちはうち、よそはよそ」です。
まとめ
とりあえず思いつくままに書いてしまいましたが、主にはこの3点だと思います。
うまく利用すれば非常に良いツールなんですが、できる事が多くなってしまっているために、うまく活用できなくなってしまう場合もあります。
「そのデータを知ることで何がわかり、何ができるのか?」
これを常に頭の隅においておくことが重要なんだと思います。