Suchmaschinenoptimierung und Google Panda Update

Suchmaschinenoptimierung kümmert sich darum, dass für bestimmte Schlüsselwörter oder Keywords eine Website möglichs weit oben in den Resultaten von Suchmaschinen auftaucht – möglichst auf der ersten Seite der Suchresultate, also innerhalb der ersten 10 Resultate.

Webseiten werden dazu mehr oder weniger immer nach den folgenden Mustern bearbeitet:

  • Keyword in der URL
  • Keyword im Seitennamen der URL
  • Keyword im Titel <title> der Seite
  • Keyword im Description Meta Tag der Seite
  • Keyword im Titel <h1> der Seite
  • Keyword in Untertiteln <h2>, <h3> etc.
  • Keyword in Anchorn von Links
  • Keyword im Lauftext der Seite

Als zweiter relevanter Faktor werden externe Links auf die Seiten gesehen

  • Möglichst viele Links von andern Webseiten auf die eigene Site
  • Möglichst Keyword im Anchor des Links
  • Möglichst Content verwandte oder Content ähnliche Seiten die verlinken

“Suchmaschinenoptimierung” oder SEO bestand nun oft darin neben der normalen Implementation dieser Anweisungen diese möglichst oft umzusetzen

  • Seiten mit Keywords welche aber keinen wirklichen Content bieten sondern nur die Indexierung durch Suchmaschinen verbessern sollen
  • Keywords dutzendfach am unteren Rand der Seite o.ä.
  • möglichst viele Links auf die eigene Seite, egal woher, oft von bezahlten “Verzeichnissen” welche nichts anderes machen als Links auf andere Seiten zu setzen, aber keinen eigentlichen Content bieten

Oft hat das auch genützt, die Website konnte mit solchen Massnahmen eine höhere Positionierung erreichen.

Das Problem ist aber das derartig höher platzierte Seiten nicht im Interesse der Suchmaschinen wie Google, Bing, Yahoo etc. sind – diese wollen möglichst relevante Seite anzeigen, nicht gepushte.

Das Google Panda Update welches neu in der Schweiz zur Anwendung kommt (nachdem es im Februar 2011 bereits in den USA implementiert wurde) hat nun dieses Problem für die Search Engines wieder ein Stück weit gelöst – zum Ärger einiger Seitenbetreiber, und zur Freude anderer.

Automatisch generierter Content, haufenweise Links von Linkfarmen – Seiten die auf diese Methoden gebaut haben wurden deutlich abgestraft und haben nun eine schlechtere Position in den Suchresultaten.

Hier einige Resultate von Searchmetrics:

Domain Aktuell Vorwoche Veränderung Prozent
gutefrage.net 15.047 43.386 -28.339 -65,32
cylex-branchenbuch.ch 8.364 31.605 -23.241 -73,54
hotfrog.ch 14.747 34.347 -19.600 -57,06
123people.ch 9.884 24.570 -14.686 -59,77
webutation.net 5.944 20.028 -14.084 -70,32
computerworld.ch 8.779 22.194 -13.415 -60,44
suite101.de 4.406 16.842 -12.436 -73,84
kununu.com 1.621 12.954 -11.333 -87,49
wikio.de 599 9.526 -8.927 -93,71
20min.ch 91.124 99.930 -8.806 -8,81

Und die Gewinner gemäss dieser Statistik:

Domain Aktuell Vorwoche Veränderung Prozent
swissinfo.ch 41.917 24.079 17.838 74,08
swisscom.ch 54.359 43.263 11.096 25,65
nzz.ch 82.216 72.003 10.213 14,18
informer.com 21.127 12.264 8.863 72,27
local.ch 68.106 59.469 8.637 14,52
bluewin.ch 54.888 46.485 8.403 18,08
pocketpc.ch 47.129 39.170 7.959 20,32
tagesanzeiger.ch 88.180 80.603 7.577 9,40
directories.ch 35.348 28.837 6.511 22,58
apple.com 201.255 194.858 6.397 3,28

Verloren haben vor allem Preisvergleichsseiten (nervt ja auch wenn bei der Suche nach einem Produkt immer zuerst die Preisvergleichsseiten auftauchen und erst irgendwann weiter unten effektive Informationen zu dem Produkt) und Aggregationsseiten die Benutzerinhalte mit weiterem Inhalt mashen oder verdichten.

Dafür haben effektive Newsseiten mit eingenem Inhalt dazugewonnen.

Fazit: Eigener Content ist immer noch Trumpf – so steigen auch die Chancen dass Links auf die eigene Seite gesetzt werden die relevant sind und nicht zu einer Abstrafung durch Google und Co führen.