| 入門編 |
最近のロボット型 |
|
簡単に説明してしまうと簡単なんですが非常に高度な事をしています。 まず、クローラーと呼ばれるプログラムが日夜稼動してホームページのリンクをたどって世界中のホームページを収集して保存しています。そして検索するときに、入力されたキーワードを保存されたホームページから探してみつかったものを表示します。 しかし、ただ単純に上記の事だけ行っているだけでは実用的なサーチエンジンはできません。たとえば、胃潰瘍について調べものをしようとしているひとは「胃潰瘍」という単語で検索しますが「胃潰瘍」という単語を含むページはgoogleでは3万以上あり、その中から自分の欲しい情報のあるホームページを探すのは大変な作業です。胃潰瘍について詳しく説明してるページの中の「胃潰瘍」という単語と個人のホームページの日記などで「先日胃潰瘍になってしまいました。」と話題として書かれただけのページも同列に扱ったのでは検索結果から自分の必要としているホームページを検索する必要が出てきてしまいます。 こういった事情に関してサーチエンジンはそれぞれいろんな方法でページの順位付けを行っています。昔は「検索した単語の数が多いページが優先度が高い」といった簡単な方法でしたが、ページ内のタグや文法を解析してよりユーザーの意図するページに近いものを優先して表示しています。最近ではgoogleがはじめた各ページのリンク関係を調べて順位付けを行う方法が出てきました。簡単に説明すると被リンクの数が多いページを優先するという事です。 一昔前はサーチエンジンでなるべく先頭の方に検索されるように背景と同じ色の文字で検索に使われそうな単語を無駄に羅列しているのを見かけましたが、最近ではそのような方法は全く通用しないばかりか逆に順位を下げられてしまう可能性もあります。 量・質ともに重要であることはディレクトリ型・ロボット型ともに同じですが、その実現はロボット型の方が遥かに困難です。 |
| TOP |
| Search Engine Optimaization |