検索結果の汚染への対応方法 SEOありきで作られたサイトへの強い疑問

By | 2018年12月16日


仕事でかなりウェブを情報を検索するために使っているのですが、最近のWebひどい状況に思えてなりません。

いわゆる「ブロガー」達のアフィリエイトありきのウェブサイトは若干減ってきたような気がしますが、その逆に企業が自分のサイトに誘導しようとするためサイト、つまり、企業の資金を使って金に物言わせてコンテンツを作ったサイトが上位に来ている、そのような印象を受ける昨今です。

この記事では、それらの信用に値しないサイトの実例と、それに対する対応方法について記述します。

典型的な読む価値がないサイト

・~は嘘? ~は? などの「?」で終わるタイトル付け
・サイドバー過去記事一覧に脈絡がない
・金の話が出てくる。
・情報商材、メールマガジンに誘導する。
・サイドバーに胡散臭いアバター(似顔絵)がある。
・サイドバーにナルシスティックな写真がある。

これらの条件は、非常にわかりやすいので、このようなサイトが検索で引っかかった場合、そもそも記事内容すら読まみません。

また、上の特徴があるサイトは、コンテンツがパクリ、もしくは「リライト」である事が多いため、そのサイトの情報自体が信用できません。

残念ながら今の検索エンジンは、それらの「『SEO』への対策」と、記述情報における信用性の判断能力が、まだ低いのではないかと言わざるを得ません。

広告


二次情報、三次情報の羅列とパクリ

よくありがちですよね。自称、「キュレート」などと称してみたり。著作権の明らかな侵害を疑わざるを得ません。

現在では、直接的なテキストのパクリサイトは検索エンジンで弾かれているようですが、では、その情報を「リライト」したサイトは、まだまだ検索上位に並んでいます。

しかも、それを企業系のサイトが恥ずかしげもなく行っている場合すらあります。

テキストの文脈を「理解」して、SEOありきのサイトを検索結果から弾くよう、検索エンジンのロジックとして組み入れていただきたいと思います。

今、ウェブではAI,AIと騒いでいますが、AIが発達すれば、そのようなパクリサイトは徹底的に排除されるのでしょうけれど。

広告


書き手の主張のないブログに意味はない

これは私が、このブログを書いているためかも知れませんが、「何々を調べてみました」などとタイトルを付け、結局、自分の意見は何一つ書くことなく、ウェブ上にある情報をただ、まとめただけなサイトは、読んだ後に後悔すら覚えます。

「Web上の情報を集めるだけ」、そんな行為でSEOを行い、アクセスが欲しいのか、と思ってしまうのです。

お金がほしければバイトでも、ダブルワークでも行えば良いのです。検索結果汚染してまで、金を得ようとする、その精神自体が恥ずかしいのではないか? と私は主張します。

広告


素人料理サイト(の集合体)

言うまでもありませんが、素人レシピに読む価値はないます。なぜこの様なサイトが検索上位に来るのでしょうか。

もちろん、私はそれらのサイトは検索結果に出ないようにしていますが。

画像をパクるサイト

いわゆる「キュレート」系のサイトです。特に、パクリ元へのリンクを単なる「テキスト」としてのみ貼ってあるサイトは、単なるアリバイ工作にしか見えません。

技術系サイトで簡単な問題解決の方法を、延々と引き延ばして書くサイト

某技術部の人と話していて知ったのですが、その技術に興味を持った者達を「セミナー」などに取りこもうとする意図が、ありありとわかります。

「メンター」と称する男性と女性の対話形式にしてみたり、その割には載っている本来の技術的な内容は極めて薄い。わずか数行程度の回答について長々と余計な戯言を垂れ流す。

特にこれらの企業はウェブ系企業でしょうし、SEOの悪用とも呼べるかもしれません。

そして、検索結果はこれらのサイトに汚染されるのです。

これらのサイトにどう対処するか

上記に上げたサイトは、いわゆる、スパムとも検索結果の汚染とも言えるようなサイトですが、このような対処サイトについてどう対処するか。

PersonalBlockListプラグインを導入する、
(Chrome、FireFox)

が、最も適切な方法ではないでしょうか。

つまり、検索結果への自分でのフィルタリングです。

また、検索結果を一つだけ見るのではなく、検索結果に対して複数のタブを開き、そのタブに遷移した時、そのページが本当に読むに値するのか事を本文を読む前に判断し、読むに値しないサイトであると感じたそのタブを閉じる、余裕があればPersonalBlockListに登録すべきです。

上記に上げているようなサイトは、「個別の記事」が読むに値しないのではなく、多くの場合、「サイト全体」が読むに値しない場合が多いのですから。

結局、Webの信頼性を高めるためには、個々の読み手による比較と判断が求められるのかも知れません。

ただ、裏を返すと、現在の検索エンジンがまだ十分に機能していないのとも考えられます。

とはいえ、今後、検索エンジンが「文脈を理解する」のみではなく、「人間がそれを読んだ時にどのように感じるか」をエミュレートできるようになれば、それらの検索結果のおかしさも改善されて行くのかも知れません。

ある意味、現在のおかしなSEOが通用する検索結果とは、現時点での検索結果のバグをついた一時的なカゲロウのような存在かも知れませんが。

広告(アフィリエイトタイプ)

    ブログランキング・にほんブログ村へ    


コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)