【無駄な努力はやめよう】元企業ブロガーが語るSEO攻略の真実
Webサイト運用に欠かせない1つの要素となっている「SEO」
Search Engine Optimization……つまり検索エンジンに対する最適化(ただの日本語訳)
ブログで稼ぎたい!という人は1回は聞いたことがあるワードだと思います。
で、結局何したらいいの?っていう人も多いと思いますので 今回は元ブログ立ち上げ2ヶ月目にもかかわらず、スモールワールドの組み合わせで 検索エンジン1~3位を取りまくっていた元SEO業者兼企業ブロガーの私がSEO攻略の真実についてお話します。
もうタイトルでネタバレしちゃってるんですが、SEOに力を入れるのはハッキリいって時間の無駄!ということですね。
なぜなら、主要の検索エンジンであるGoogleはアップデートにより 当時有効だったSEO対策をすべて無に帰す力を持っているからですね。
何中二病みたいなこと言ってんだと思われますが、これはふざけているわけでもなんでもなくて
昔は無法地帯だったGoogle
まだWordpressなんかが殆どメジャーじゃなかった時代、 いわゆるホームページビルダーなんかで作ったり、無料ブログサービスが活発だった時代。
私がSEOの世界に踏み出したのは20歳の頃なので2021年から約15年前の2006年ぐらいになります。
ネットの世界は進化がめちゃくちゃ早いので15年前なんて化石レベルに等しいんですよ。
この頃はGoogleの仕組みもまだまだガバガバシステムで、HTMLタグに同じワードを書き込みまくって 検索上位に数日で上げることが可能だった時代です。
ホント、無法地帯でした(笑)
私も実際にゲームの攻略サイトを1つ作ってしっかりと作った後に、「ゲームタイトル 攻略」という ワードを詰め込みまくったら数日後にはその検索ワードで1年ぐらいずっと1位になってたぐらいです。
もちろん、ちゃんとした良質ゲーム攻略のWebサイトとして成り立っていたので それも相まって上位に維持し続けてくれたんだと思います。
広告とかも一切付けてなかったのもあって、ユーザーに利益をもたらすサイトとして完全に認識されてたんでしょう。
ワードの詰め込みもそうなのですが、実は検索1位を維持し続けた要因はもう一つあります。
外部被リンクなんかは0でした。だって相互リンクとか面倒くさいでしょ(笑)
その要素とは……HTMLの超絶最適化です。
HTMLを最適化するとなぜ検索上位にいくのか
当時のGoogleは今ほどAIが発達していないときの仕組みで作られているのでとても機械的です。
HTMLの構造がしっかりしているサイトだとGoogleのクローラーがスムーズにサイトの中身を理解してくれるわけです。
HTMLの構造がぐちゃぐちゃになっているサイトは当時めちゃくちゃ多く 機械はPCの画面を見られないでHTMLそのものをみているわけです。
ぐちゃぐちゃなHTMLと整ったHTMLのどちらが良質なサイトとしてみなされるかはもうおわかりですね。
今は殆ど気にしなくても良いのですが、それでもHTMLの知識をちゃんと知っていない人は きれいに作ってくれている有料ブログテンプレートを使っていても 記事を書いたりコンテンツを並べたりしているとHTMLがぐちゃぐちゃになっていきます。
それだけで同じテンプレートを使っていてもHTMLをキレイにしてる人と比べるとSEOが弱まってしまいます。
実はこのテクニックは今もそこそこ有効なのですが、あまりキレイにしすぎると今度は機械判定をされて 逆にスパムとして認定される可能性もでてきています。あくまで噂ですが。
なのでぶっちゃけてしまうとあまり気にしなくても大丈夫です(笑)
外部SEO・被リンク最強伝説はその名の通り伝説となった
昔は良質なサイトからの被リンクを稼いだら相対的に良質サイトと認定されていました。
Yahooにリンクされたらそれだけで検索上位にきやすい!っていうのもブロガーたちの中で常識でした。
他にも色んなサイトからリンクされていればされるほど上質なサイトとみなされていたので みんなとにかく相互リンクをしたがっていました。それこそカテゴリが全く関係ない同士のサイトでもです。
Googleはこれはあまりよくないなと思い、とりあえず関連性のない被リンクをめっちゃ持ってるサイトは スパムサイトとみなそうと検索エンジンをアップデートしました。
このアップデートが来たときは一気に検索ランキングが変わって一部の悪徳ブロガーは阿鼻叫喚でした(笑)
それからというものの同じカテゴリ同士で被リンクしあう感じに落ち着きました。
そしてそれも後のアップデートであまり意味をなさないものとなってしまいました。
なので今は相互リンク文化はかなり廃れてしまったのではないでしょうか?
昔はサイドバーにたくさんのサイトが羅列されたリンクがあったのですが、 個人のブログでは本当に見かけなくなりましたね。
ただ、キュレーション的なまとめサイトなんかは未だに現役だと思います。
あれはあれでまとめサイトからまとめサイトへ飛んだりすることができるので ユーザーフレンドリーな仕組みだなと思います。
被リンクによるサイトの質のアップというものは殆どなくなったと思ってもいいでしょう。
ただ、一方的に色んなサイトからリンクを貼られている場合は別です。
ですがGoogleが認めた良質なサイトからの被リンクに限ります。
そうしないとスパムサイトを立ち上げて一方的に被リンクを貼ってしまえばいいだけになってしまいますからね。
例えばツイッターで誰かがブログのリンクを貼り付けてつぶやくとそれは「ツイッター社ドメインからの被リンク」としてカウントされます。
その後誰がつぶやこうが被リンクカウントは1以上増えません。
ただ、色んな人がリンクを張ってつぶやくとそこからのアクセスが生まれるので、 被リンクは多くても損にはなりませんが、あまりにもスパム的な数だとすべてが無駄になります。
あくまでちゃんとしたユーザーからの被リンクが有効ということですね。悪いことは基本潰されます。
そして努力した割にそこまでSEOの効果は得られないので今の時代、被リンクに力を入れるのは完全に努力の無駄です。
内部SEO最強だと思ってた時期がオレにもありました
HTML最適化の項目でもお話しましたが、アレも内部的なSEO対策に部類されます。
内部SEOのことについてお話すると、やっていたことは以下のリストになります。
- 1記事に強調タグであるstrongタグは1つのみ、emタグは3~5個に抑える
- 上記の強調タグはなるべく記事の最初の方に埋め込む
- 記事タイトルは必ずh2にする(HTML5時代になったらh1にしても良くなった)
- h2の次に来るヘッダタグは必ず数字順にする必要がある(h2の次はh3にする)
- リスト形式にするときはulまたはolを使う
- 文章はかならずpタグで段落ごとに囲う
- 1記事に入っているワード出現率のバランスを調整する
- imgタグには必ずalt属性を付けてこの画像の詳細を記載する
- aタグには必ずtitleを付けて飛び先のtitleタグの名前や詳細を記載する
- 被リンクとしてカウントさせたくないaタグはrel属性をつけてnofollowにする
- 無駄な連続brタグを発生させないようにする
詳細に書くともっとありますが、大きく見るとこんな感じで記事を作っていました。
後は記事以外のHTMLの構造をしっかりしたりですね。
普段ブログテーマとかを作らない人はあまり触らないかもしれませんが、 私はすべて自作しているので記事とブログテーマでHTMLの構造がぐちゃぐちゃにならないように設計してます。
大抵の人は記事しか書かないと思うので、ブログテーマのHTML構造はこうなのに 記事は全然違う構造になっていてそこでHTML的なエラーが内部的に発生しています。
今の時代はそんなエラーはあまり気にしなくてもSEOに影響はないので心配無用です。
ただ、昔はこのやり方でキレイにしてると内部SEOの効果はめちゃくちゃ上昇していました。
今でも私が続けているのはその名残です。
一応元HTMLコーダーなのでプロ意識が働いてキレイにしたいだけってのもありますけどね。
そして今はstrongタグですら殆ど効果がないと最近久々にSEOを勉強しなおして判明しました。
Googleは日進月歩なのでSEOについてもちょっとでもサボると情報が古くなっていけませんね。
ただ、毎日SEOについて勉強するのは本当に無駄な行為だと知っておいてください。
SEO情報で食ってるなら話は別ですが(笑)
以上のことから内部的なSEOは殆ど無駄になっています。
しかしまだまだ有効な内部SEOとしては無駄を削ぎ落とすとロード時間が小さくなるので サイトの読み込みが早くなる=良質なサイトとして認識されるのは現在でもこれからも有効です。
というのもスマートフォンでのWebサイト閲覧率は8割以上だということで 基本はパソコンよりも性能が良くないスマートフォンでもスムーズに見られるようにする いわゆる「モバイルファースト」な時代でもあるので軽量で良質なWebサイトが今後も良質なサイトとして認識されます。
だからこそ私はこの廃れないサイトの軽量化の技術を磨き続けています。
世はコンテンツファースト時代
これまでのSEOの知識が全て無駄になるくらい、今はコンテンツ重視の仕組みになっています。
逆に言うと良質なコンテンツがあれば、被リンクやHTMLの構造なんて関係ないというわけですね。
何を持って良質なコンテンツなのかはGoogleにしかわからないんですが、 Googleが言うにはユーザーに有益な情報をもたらす記事こそが良質なコンテンツと謳っています。
Googleの検索エンジン担当にでもならない限り答えにはたどり着けないですし 答えにたどり着いたところでアップデートが入ると無駄になるわけですから、 結論は素直にGoogleが言うユーザーに有益なコンテンツを作るしかないというわけです。
小手先のSEO技術や古臭い対策をしている暇があったら良質な記事を書いたほうが それこそ最強のSEOになります。
さて問題です。ここまでSEOという単語はいくつ出てきたでしょうか?
正解は……タイトル含めて27回でした!
こうやって自然にバラけさせたら昔はスパム判定もされずに該当の単語が沢山でてくる良質な記事だとみなされて 記事単体で検索上位に組み込んだりもしていましたが、それも過去の伝説です。
同じワードを同じ場所で連発すれば流石に今でもスパム判定されると思いますが、 この記事のように至るところに自然にあればスパム判定はされません。
実はわたしはこのやり方を無意識にできるようになってしまうぐらいです。
記事本文だけで26回もワードが出てきたのは正直想定外ですね。ワード出現率が多すぎます。
まだまだ昔のSEO業者のときの癖が抜けてない気がします(笑)
もちろんこれらの出現回数なんかは今は殆ど効果はないのでお気になさらず。
結局毎日更新がいちばん強くてすごいワケ
コンテンツファーストな時代だからこそ、毎日更新が最も最強のSEOだということですね。
当ブログも2021年から毎日更新を行っていますが、これまた2019年同様自分を律するためであり 正直SEOに関してはあんまり意識せず記事を書いています。
といっても自然と意識した書き方になってしまっているんでしょうが。
2019年、365日更新してきた技術系のブログが2020年更新ほとんどしていないのにも関わらず 久々にアナリティクスを覗いてみるとアクティブユーザーが常にいる状態になってました。
自分を律するために始めたことが検索エンジン最適化としての効果も生み出していたのは嬉しい限りです。
更新していないサイトは検索ランキングを落とされやすいはずなんですが、 Googleからは良質なサイトとしてみなされている可能性が高そうです。
単純に他のブログでは見つからない答えが私のブログにだけあって その需要で人が集まってるだけかもしれませんが。
それでも人が来ているということはGoogleとしては良質ブログとして判定せざるを得ないわけですね。
コンテンツファーストの時代、検索エンジンにランキングとして反映されるのは結構先のことになりやすいです。
というのも良質な記事って時間をかけないとぶっちゃけ判定できないわけじゃないですか。
そのへんは機械も現実のユーザーの行動を監視して集計してからでないと判定出来ない仕組みになっているからですね。
だからこそブログは更新し続ける必要があります。
昔に書いた記事が急に伸びてくるなんてよくあることです。
逆に昨日書いた記事がもう検索上位にいる!(もちろんキャッシュを消してみている)
っていうときはまさにアタリの良質記事を生み出したことになります。
なのでブログで1発当てたい!という人ほど毎日更新+良質記事を書き続けるのが最高のSEOとなります。
番外編:最近のGoogleはなんかおかしい
SEOについてのお話は以上になります。
ここからは最近というか2019年周辺でGoogleの検索ランキングが著しく無能になったなと感じます。
おそらく検索エンジンに新たなAIの仕組みを取り込んで密かに運用を始めている感じがするんですよね。
最近Google検索エンジンそのものについて調べてないので、あくまで私の予想ですが。
2019年はディープラーニングが注目されまくった年でもあります。
私も興味があったので書籍を買ったりしてちょっとかじってます。
ディープラーニングは良質な結果を出すためには膨大なデータが必要になりますので 逆にデータが少ないときはポンコツロボットみたいな状態になってしまいます。
だからこそ怪しいスパムサイトが一時的に上位にきたりすることがあったんですね。
Twitterで同じように感じてた人が結構居たのでおそらく予想はあたってそうです。
そして2020年になってランキングが少し落ち着いた感じがするので、 やっぱりいろんなデータを集めてる最中だったのかもしれません。
さらに2020年に比べて2021年もだいぶ改善されてる気がするので検索エンジンAIの成長が感じられます。
それでもまだまだ上位におかしいサイトがあがってくるんですよね。
最近は有益だったサイトがクラッキングされて改ざんされまくっています。
放置してるサイトが乗っ取られるのは今も昔も同じですね。
特に昔サイトはセキュリティが弱いのですぐに乗っ取られてしまいます。
古いゲームの攻略サイトを見に行こうとして、 1位のサイトをクリックするとブラウザを閉じられなくするサイトに飛ばされることがめちゃくちゃ多いです。
検索エンジン側も元がまともなサイトのドメインなので悪質なサイトとして認識できないどころか ユーザーの求めているサイトだと思って1位にあげてきているわけです。
Googleの1位のサイトなんて基本誰もが信頼するサイトだと思ってしまうので ある意味Google自体が悪質サイトに誘導するサイトとなってしまっています。
私はセキュリティの知識がそこそこある方なので自衛できまが、 セキュリティをかじったことがない人だと必ず罠にはまると思いますね。
医療関連の記事について思うこと
いつかのアップデートで資格持ちの専門的な人が書いた記事は 素人が書いた記事よりも優先的に上位に表示する仕組みが導入されました。
というのも素人が市販薬の記事を書いて誤報だったとき取り返しがつかないことも発生しますので そりゃ医療従事者や薬剤師が書いた記事のほうが信憑性もありますので当然上に上げるべきではあります。
ただ、その点だけを見て上位にあげてしまうとこれまた問題が発生します。
薬剤師は薬のプロとも言えますが、ブログや記事を書くということに対しては一般ブロガー以下のレベルです。
論文などを書く感じでずらずらと難しい言葉を書いて、 更にデザインもどっかから拾ってきたものだったり文字の見やすさもゴミレベルだったりします。
いくら良質な記事であっても見づらい・読みにくい・読む気がおこらない状態であれば 速攻離脱されて結局素人が書いた見やすい記事に行ってしまうのが大半だと思います。
もちろん普段活字を読むのに慣れている人や頭のいい人なんかは普通に読めますが 大半の人は基本的に見にくいサイトだなって判断して速攻ブラウザバックです。
私の気持ちとしては確かに見にくいサイトは悪即斬!な気持ちになりますが 身体に悪影響があってからでは遅いので素人の書いた薬品の記事なんて見たくもない! というモヤモヤがつのって我慢して専門者が書いた記事を見ています。
ビジネス脳になればその薬剤師に営業を持ちかけて読みやすくしますよ! って売に行けるのですがそういう記事って別にお金を儲けたいとかいうことではないことが多いとおもうので微妙ですね(笑)
広告で儲けてそうな医療記事の場合はもしかすると交渉に応じてくれるかもしれません。
しらんけど。