SEOの歴史はGoogleのアップデートの歴史
SEOとは、検索結果で上位に表示されるように検索アルゴリズム対策をして、Webサイトを最適化していくことです。
検索エンジンの登場以来、Webサイトの所有者は自身のサイトをいかに検索結果の上位に表示させるか試行錯誤を続けています。
今回はSEOの参考に、これまでのSEOの歴史をGoogleのアップデートを中心に紹介していきます。
検索エンジンの変遷とSEO
検索エンジンは1990年に世界初と呼ばれる「Archie」が誕生して以来、1990年から2000年にかけて次々とサービスが提供されるようになりました。
検索エンジンの進化とともにSEOも変化してきました。
ここでは検索エンジンの変遷を解説します。
ディレクトリ型検索エンジン

1994年から1996年にかけて、Lycos、Yahoo!、Excite、infoseek、Yahoo!JAPANが誕生し、ディレクトリ型検索エンジンが台頭します。
ディレクトリ型検索エンジンは、運営会社が人手作業で構築したWebディレクトリ内を検索するシステムです。ディレクトリという名称が聞き慣れないならば、パソコンのフォルダをイメージするとよいでしょう。
ディレクトリ型検索エンジンは、収集されたWebサイトの情報を人間が1件1件カテゴリに分類し、その情報をフォルダ分け管理することで、Webサイトの検索をしようという仕組みです。
ディレクトリ型検索エンジンにおけるSEOは、同一カテゴリ内でWebサイトを競合サイトよりも上位に表示させることでした。
しかしながら、Webサイトの爆発的な増加によって人手による情報収集・登録が難しくなり、ディレクトリ型検索エンジンは主流ではなくなります。
Yahoo! JAPANも 2018年3月でディレクトリ型検索エンジンのサービスを終了しています。
ロボット型検索エンジン
ロボット型検索エンジンの誕生

現在の主要な検索エンジンで導入されているのがロボット型検索エンジンです。
1996年に米Yahoo!が「Alta Vista」を採用したのを皮切りに、1998年にはYahoo! JAPANが「goo」を採用します。
1997年にはGoogleがドメインを取得してサービスを開始し、翌年には同名の法人を設立、2000年には日本語版のサービスも開始しました。
ロボット型検索エンジンは、クローラーと呼ばれるロボットが世界中のサイトの情報を自動に収集しデータベース化することで、ユーザーが検索したキーワードを基に適切なサイトを検索結果として表示するものです。
初期のロボット型検索エンジンの弱点
ロボット型検索エンジンが登場した当時のサイトの評価基準は、ページ内のキーワード出現率やサイトのページ数といった単純なものでした。
このため、検索アルゴリズムを逆手に取って意図的にサイトの検索順位を上げようとするサイト所有者がでてきました。
ウェブページの内容とは関連のない単語を大量に詰め込んだページや隠しテキストでキーワードを埋め込んだページが大量に生産されて、ウェブスパムが蔓延するようになりました。
また、Googleがページ内のキーワード出現率に加えて外部からのリンクという評価基準を新しく追加したことで、大量のリンクを貼っただけのWebサイトが多く登場するようになり、外部リンクスパムが増えました。
アップデートの幕開け
このようなユーザーにとって価値のない質の低いWebサイトを排除すべく、検索アルゴリズムを更新させてきたのがGoogleです。
Webの動きを解析するstatcounterによると、2022年9月現在の検索エンジンの世界シェアはGoogleが92.42%を占めています。
このため、現在のSEOではWebサイトをGoogleの検索アルゴリズムに合わせ、検索結果の上位に表示させることを目的としています。
主要なGoogleアップデート
Googleはユーザーに対して最も関連性と信頼性の高い情報を提供するために検索アルゴリズムを日々見直しています。
ほとんどの更新は軽微なものですが、大規模な更新も年に数回実施されています。
大規模な更新は「コアアップデート」と呼ばれ、検索結果に大きな影響をもたらすものです。
ここでは、主なGoogleアップデートを紹介します。
フロリダアップデート(2003年11月)
Googleリリース後初の大規模アップデート
フロリダアップデートは、Googleのリリース以降最初の重要なアップデートとして知られています。
ウェブスパムを除外して検索結果の品質を向上させることを目的として実施されました。
フロリダアップデートにより、Webページの内容とは関連のない単語を大量に詰め込んで検索結果の順位を上げようとするキーワードスタッフィングのような手法を用いたWebサイトの評価が下がるようになりました。
フロリダアップデートではサイト訪問者には表示されないように隠して大量の文字を詰め込みコンテンツの文字数を稼いでいるWebサイトについては見逃されていましたが、続けて行われたオースティンアップデートで修正されました。
Hilltopアルゴリズム
このアップデートの際に追加されたといわれているのがHilltopアルゴリズムです。
Hilltopアルゴリズムの特徴として、以下のものがあげられます。
- 検索クエリに応じて専門性の高いサイトを選択する
- 自分で立ち上げた大量のWebサイトで相互リンクさせるリンクファームを排除する
パンダアップデート(2011年2月)
パンダアップデートはGoogleアルゴリズムアップデートの中でも最も有名なものとして知られています。
2011年2月に英語圏にて行われ、日本では2012年7月に導入されました。
コンテンツの品質を判断するアルゴリズムで、低品質なサイトは検索結果上位に表示されにくくなりました。
品質はサイトのテーマ性や内容の深さなど、サイト訪問者にとって有益であるかどうかという観点から判断されます。
低品質と評価されるのは、無断で他サイトのコンテンツを複製、コンテンツを自動生成、不適切な広告の設置といった特徴をもつWebサイトです。
パンダアップデート以前は他サイトから無断で情報を盗用したまとめサイトが問題となっていましたが、このアップデートにより、検索順位を軒並み落としました。
その後もパンダアップデートは何回もの更新を経て、コアアルゴリズムの一部となっています。
ペンギンアップデート(2012年4月)
外部リンクに焦点を当て、ブラックハットSEOのようなWebスパムを排除することを目的としたアップデートです。
それまでは外部リンクの数が評価されていたため、外部リンクの購入や大量のサイト製作など悪質なサイトも存在し、ユーザーにとって価値のないサイトが検索結果上位に表示されていました。
そこでリンクの質を重視するようにし、関連性が高く信用できるサイトからのリンクを高く評価するように変更しました。
その後ペンギンアップデートは何度も更新され、2016年9月にはペンギンアップデート4.0が更新されています。
ペンギンアップデート4.0にて以前はマイナス評価とされていた低品質のサイトは無効化され、評価の対象にすらならなくなりました。
ハミングバードアップデート(2013年9月)
ハミングバードアップデートにより、検索クエリの技術が刷新されました。
検索クエリの背後にあるユーザーの検索意図をより正確に理解し、ユーザーの求めている検索結果を表示することを目的として導入されました。
また、ハミングバードアップデートでは音声検索による口語調の検索クエリに対しても検索結果を適切に表示できるようになりました。
BERTアップデート(2019年10月)
BERT(Bidirectional Encoder Representations from Transformers)とはGoogleが発表した自然言語処理モデルで使った検索アルゴリズムのアップデートです。
アップデートされた際には過去5年間で最大の変更とも呼ばれました。
この技術によりユーザーの入力した検索クエリとその意図の理解が大幅に改善しました。
機械学習により前後の単語から文脈を理解できるようになり、より関連性の高い検索結果を表示できるようになりました。
Googleの目指すもの
Googleは自社のミッションとして以下の言葉を掲げています。
Our mission is to organize the world’s information and make it universally accessible and useful
Google の使命は、世界中の情報を整理し、世界中の人々がアクセスして使えるようにすることです。
Googleがユーザーにとってより使いやすい検索機能を提供しようとしていることは『How Google Works: 私たちの働き方とマネジメント』などで語られています。
これまで見てきたように、Googleの検索ロボットは日々進化し、悪質なサイトやコピペでつくったような中身の薄いサイトはどんどん表示されなくなり、ユーザーにとって価値のあるWebページが上位に表示されるようになっています。
そのため、SEOを考える際は、小手先の技術で検索順位を上げようとせず「ユーザーにとってどのようなWebページが有益か?」を考え、コンテンツ作りをするとよいでしょう。
Googleによるアップデート情報
アップデートの事前告知は公式ブログやtwitterでアナウンスされています。
実施履歴はGoogle検索セントラルで確認できます。