分類について

インターネットを使っていれば、誰でも一度は検索エンジン・サーチエンジンを利用して、検索した事があると思います。そうです。
代表的なYahoo!やGoogleなどが検索エンジンです。
 例えば自分が欲しい情報が「浅草」だったとします。ネット上には数多くのサイトが存在する為、ただ単にリンクを辿るだけでは目的の情報を公開しているサイトになかなかたどり着けません。そこで検索エンジンが非常に役立ちます。自分が検索したいキーワード「浅草」を入力すれば、その情報を公開しているサイトを検索してくれます。
当たり前のことですが、非常に便利で、ある特定のサイトに訪問する為に何を用いるかという統計では、検索エンジン利用が圧倒的に多く、アクセス数を増やす為には検索エンジン対策は必須条件となります。検索エンジンにはロボット型(自動で登録してくれる)とディレクトリ型(自分で登録を行う)があります。
 検索エンジンも、大小を問わなければ提供しているサイトは、1万を下らないと思います。このまるるサーチも含めて、検索エンジンは、ディレクトリ/審査型とロボット型に分類することができます。

ディレクトリ/審査型

ロボット型検索エンジンと違い、ディレクトリ型検索エンジンでは検索エンジンに登録されていないと検索されません。最近ではディレクトリ型検索エンジンに登録して掲載されるのは非常に難しくなっており、サイトの内容がそれなりに優れていないと登録されません。
 ディレクトリ型検索エンジンに登録されるのは難しいですが、登録されればかなりのアクセス増が期待できるので、まずは挑戦してみましょう。
ディレクトリ型検索エンジンには次のようなものがあります。

サイトの内容によりディレクトリ構造の中に分類整理されています。代表がYahoo!Japan。登録申請後、内容チェックを受けます。審査基準を越える良質サイトでなければ掲載されません。人の目を経て集積されたページばかりですから、検索結果の質の高さがウリです。ディレクトリを検索することをサイト検索と呼んでいます。

ロボット型

Google に代表されるロボット型検索エンジンはデーターベースを作る為にクローラーと呼ばれる ロボット スパイダー(検索ロボットプログラム)を使用しWebページを巡回、収集します。 検索ロボットには Web Site と言うような概念は有りません。 ひたすら、Webページのリンク構造を辿り新たなWebページを収集して行きます。 スパイダー(spider:「虫」クモ)と書くと何だか恐ろしげなイメージが湧きますが、 他人に見られたくないファイルをWebサーバー上に置いたりしない限り怖い物では有りません。
人がWeb(WWW)を閲覧する時にはブラウザを使い自分で行き先をクリックしますが、 ロボット スパイダーは自動的にWeb上のリンクを辿ってページのテキストを収集します。
Webページを自動的に収集するのでロボットと言う呼び方がされる様になったのだとも思えますが定かではありません。
 ともかく、URLを申請しておけば巡回コースに組み入れてくれます。
リンクをたどって、知らないうちにデータベース化されていることもあります。
ロボットは<META>タグ要素を参照したり、本文のテキストを拾います。
トップページだけでなくリンクされている全てのページを拾います。ですから、そのデータ量は膨大です。キーワードによっては何万件と検索結果が返ってくることがあり、追加キーワードで上手に絞り込むことが大切です。ページを探すことから、ページ検索と呼ばれているそうです。

併用型

審査型とロボットを併用したタイプを言います。。Googleのデータをも参照するYahoo!Japan始め、有力大手検索エンジンのほとんどがこのタイプといえるでしょう。
 ディレクトリ掲載は審査が厳しくはじかれるケースが多いですが、ロボットならほぼ確実にリストアップされるようです。
 また、あらゆるジャンルのページを扱う総合型と、取り扱いジャンルを限定した専門型の検索エンジンという風に分類することもできます。




スポンサード リンク