エージングフィルタにかかる

  • このエントリーをはてなブックマークに追加

ロボット型検索エンジンのフィルタエイジングフィルタ

ヘッドライン

私は15年近くホームページ運営に携わってきました。
言葉として、【SEO】や【SEM】、【ロングテール】や【フィルタ】という言葉を理解し、様々なお客様のホームページのアクセス増加にビジネスとして寄与してきました。
しかし、今回初めてロボット型検索エンジンの魅力と、怖さを実感したことはなかったと思います。
なぜなら、自分のサイトでたくさんのアクセスを集め収益を得ようとしたとき、フィルタに引っかかるとどうなるのか如実にわかったからです。
技術的なことなどはプロに任せるとして、今回、何が起きたのか記事にして記録として残しておこうと思います。

OOK85_plannoteian20131223.jpg

WEBサイトの開設

今回、ビッグデータ活用という言葉がもてはやされていることからも、少し量の多いデータを扱う練習をしようと考えました。
ただ、練習して終わりでは、あまりにも面白みがないので、最終的には収益につながるようなデータを使って練習してみたいと考えました。

そこで、ある卸会社のデータを活用してショップサイトの構築をするというコンセプトの元サイトを作ることにしました。
商品データは約40万件。APIが使えるが、1分間に90回までの接続制限があることから、APIから毎回データを引っ張るようなやり方ではすぐにパンクしてしまうので、DBサーバーにデータをためていく仕様を作った。
APIを活用したWEBサイトは何度も作ってきたが、今までは、DBを使わず楽をする方法で作り、APIの接続制限によるエラーやロボット型検索エンジンを意識して作ったことはほぼ皆無だった。

スパムにならないように何をすべきか

APIなどからデータを引き出せるということは、だれでも同じ情報のページを作ることができるということ。
最近のロボットは、同じ情報とみなした場合に、スパムサイトと認定される可能性もあることから、情報自体をどう他社と分けて考えるのかというのは結構重要なことだった。
まだ、文章の再構築までは行っていないが、今回のサイトでは、お客様の声をすべて掲載することで、同じ情報の部分をより薄くできるよういろいろ考えた。

ロボットが顧客にならないように

次に、SEOを意識した場合つい陥りがちなのが、ロボットのためのサイト作りになってしまうこと。
Hタグで囲む文字列やタイトル、キーワード、ディスクリプションをついロボット向けに作ってしまうのだ。
重要なのは、上位表示が目的ではなく、商品を販売することが目的なのだ。
要は、人間がお客様なのだ。
では、人はどんなサイトを見たら商品を購入するのだろう。商品の購入決定の思考プロセスを考えサイトデザインを作った。
今までやったこともない【代引き可】【送料無料】などの、ロゴ画像や、商品写真をいかに良く見せるかを考えlightboxの導入などを行った。

サイト公開と同時にWEBMASTERツールにサイトマップ登録、クロール申請

公開できる状態になるとほぼ同時にGoogleにサイトマップを登録、クロール申請を行った。
結果、約1週間で40万ページのほぼすべてがクロールされインデックスに追加された。
SEO的な部分では、内部HTMLページをフルCSSでデザイン、また、THML構造を超シンプルにすることで情報の取得を容易になるよう心掛け作った結果だろう。
ここまで早くクロールされたのは今までで初めてで、じっくり作りこんだ価値があったと感じている。

インデックスされると同時にアクセス増加

クロール開始、インデックスアップと同時にアクセスへとつながっていく。
サイト開設して1週間ほどで1日のアクセスは3,000アクセスまで伸びた。
それと同時に商品の販売も徐々に増えていった。

安定の収益

アクセス量という圧倒的な集客からくる販売は、確実に伸び、アクセスに相対して売り上げも伸びていく。
当サイトで行うことは、アクセス量が増えるための施策と、情報を見てもらうことで、アクセス数と滞在時間が商品販売に強く影響することがわかってきた。

突然のアクセス大量減

そのころになってくると、同時接続者数が大体10~20人程度で、Googleアナリティクスのリアルタイム情報を見るのが楽しいくらいの状況になりつつあった。
そして、次のステップとして別の問屋の商品からの販売サイトを手掛けようと、いろいろ調整しながらアクセスを見るのが日課になってきた。
その日は突然訪れた。
昼食前に、いつもの通り確認をしようとアナリティクスにログイン、リアルタイム情報を見ると、どんなに悪くても5~6人が常時閲覧しているサイトの閲覧者数が0人だった。
目を疑い、見ているサイトが違うのでは?など、いろいろ確認してみたが、まさについ先ほどまで同時接続20人からいたサイトが今は0人なのだ。
一瞬、何かの手違いでアナリティクスのコードを外したかと疑ったが、そういうこともなく、要は本当にアクセスがなくなったのだ。

どうやらエイジングフィルタがかかったぽい

Googleは、サイト開設して間もないWEBサイトや、ドメインを取得して間もないサイトにエイジングフィルタという制限をかけることがSEO業界では有名な話。
確実な明言こそないが、誰しもがその経験がありほとんどの場合、このフィルタに一度はかかるのだ。
わかってはいた。言葉としては。しかし、ここまで如実に経験したことはなかった。
1日3000アクセスもの集客を誇ったサイトがフィルタがかかったことで、1日100~200アクセス程度まで落ち込みそうな勢いだ。
同時接続はほとんど皆無。
見てもずっと0が並ぶ。つい1時間前まではここが10~20だったのだが。

エイジングフィルタはスパムフィルタではない

エイジングフィルタは、言葉の通り加齢制限だ。
できたばかりのサイトは一度フィルタをかけて落とすと考えればよい。
なので、スパムではなく、誰しもが通過する試練のようなものだ。

エイジングフィルタの逆のハネムーンもある

エイジングフィルタは露出に制限がかかる、いわばマイナス要素だ。
その逆のプラス要素としていわゆる【ハネムーン】といわれる、ブースターのようなものの存在も業界では当然のごとくささやかれる事実である。
おそらく当サイトは、ハネムーンからエイジングフィルタへと移行したのではないか。

総合して考えてみると

数か月後にはエイジングフィルタが解除され、元に戻ってくるだろう。(スパムフィルタでない場合は)
おそらくハネムーンにかかっていたのではないかと考えられるため戻ってきた後のアクセスは半分程度か。
ということは、1日当たりのアクセスは安定して、1000~2000アクセス前後が期待される。

今後自分がやることは

このフィルタの期間、アクセスが少ないため相対的に収益も少なくなる。
その期間のうちに、検索で露出した場合に、クリックという作業で当サイトを選んでもらいやすくなる情報の発信、そして、滞在時間が伸びる掲載、文字サイズ、画像の配置、魅力的な文章を掲載できるようにし、結果として商品販売、売り上げにつながるよう努力する必要がある。

同じだけの露出であればクリック率を向上させることが重要だ。
何を見たらクリックしたくなるのか、研究していく必要がある。

エイジングフィルタはそのことを忘れさせないための足かせだと思えば、ありがたいともいえる。
フィルタがかかっている数か月間で、どこまで完成度の高いサイトを作れるのか。自分に楽しみである。

SNSでもご購読できます。