Auch wenn das Thema schon nicht mehr ganz Neu ist, aber Aktuell ist ist die Thematik um Pinguin, Panda etc. immer noch. Zumal ja ein Update aufs Andere folgt. Aber wozu der ganze Wirbel um den Google Zoo ? Als Suchmaschine liegt Google sehr viel daran das seine Besucher auch das finden, wonach letztendlich gesucht wurde. Ansonsten würde man die Benutzer verärgern, und sie würden zur Konkurrenz gehen.
Für Google wäre das ein herber Verlust, schließlich geht es dabei nicht um ein paar Nutzer sondern Millionen. Fakt ist das in der Vergangenheit die Ergebnisse in den Suchmaschinen durch Webmaster, SEOs, etc. erheblich “manipuliert” wurden. Teilweise mußte man sich wirklich fragen, was denn so manche “Schrottseite” auf vorderen Plätzen machte, wo doch hochwertige Konkurrenz vorhanden war.Suchmaschinen lernen aus ihren Fehlern, bzw. die Macher verbessern immer weiter den Code mit denen Homepages untersucht und indexiert werden. Jede Information wird dabei genutzt den Inhalt korrekt zu bewerten, und entsprechen in den Ergebnissen einzulisten. Dabei traten eben auch solche Maßnahmen auf, welche einzig der Manipulation dienen. Zum Beispiel:
– verwenden von immer gleichen Linktexten
– schlechte links ( bad neighbourhood )
– nur minderwertige Links z.B. aus Gästebüchern, Kommentaren, …
– schlechter Content
– kopierter Content ( double Content )
– Inhalte ohne Mehrwert
Die Veränderung des Algorythmus mit Panda hatte das Ziel schlechte Inhalte auf den Homepages aufs “Korn” zu nehmen, denn hier war ein grosser Handlungsbedarf. Man kann wirklich schon von viel Müll sprechen, der zum Ziel hatte Traffic zu generieren, welchen man dann über Adsense zu Geld machte. Das dieses Geschäftsprinzip auf Dauer nicht funktionieren kann, war nur eine Frage der Zeit.
Wie kann Google schlechten von gutem Content unterscheiden ?
Dazu stehen verschiedene Möglichkeiten zur Verfügung. Wirklich lesen und Texte verstehen können Suchmaschinen zwar nicht, aber es gibt eben Möglichkeiten der Analyse wie man es auf anderem Wege herausbekommen kann. Beispielsweise über:
– Verweildauer der Besucher auf dem jeweiligen Artikel
– Länge vom Text ( je Länger, je mehr Informationen, Tipps, Hilfen etc. werden bereitgestellt )
– Strukturierung vom Text
– Beliebtheit des Artikels in Social Media Netzwerken
– Keyworddichte ( zuviel = Spam )
– ob der Text wirklich Unique, also Einzigartig ist
– Bilder vorhanden sind ( Bilder zeigen das sich jemand Mühe gegeben hat, außerdem mögen Besucher Bilder )
Panda hatte schon unter den Webmastern unheimliche “Flammen” geschlagen, ganze Existenzen gingen den Bach runter. Viele Warnungen wurden allerdings auch einfach ignoriert, nach dem Motto wird schon schiefgehen, oder no risk no fun. 🙂 Neben diversen Panda Updates folge schon bald Googles Pinguin. Damit ging es jetzt den Offpage Optimierungsfaktoren an den Kragen, wie oben schon beschrieben. Auch hier war und ist das Geschrei gross, denn für viele Homepages folgte ein gravierender Absturz im Ranking. Um einen Filter handelt es sich dabei nicht, vielmehr wurde der Algo einfach angepaßt. Das jedoch in mehreren Schritten, denn es folgten ja mehrere Updates.
Gibt es Tipps, Informationen oder Hilfe nach einem Absturz im Ranking dem Panda / Pinguin wieder zu entkommen ?
Nach dem Absturz im Ranking ist man erstmal geschockt, und ist geneigt die Fehler so schnell wie möglich zu beheben. Ein Fehler, denn das wäre wohl kaum als Natürlich zu bezeichnen, wenn man seine ganzen schlechten Links auf einen Schlag wieder entfernt. Was man erstmal machen sollte ist, ………. NICHTS. 🙂 Erstmal sollte man in Ruhe prüfen, ob Panda und Pinguin wirklich Schuld am Absturz vom Ranking sind. Danach kann man in Schritten versuchen die spammigen Links langsam zu entfernen. Besser wäre hingegen für mehr neue und hochwertige Links zu sorgen, damit das Verhältnis zu den schlechten Links wieder besser wird. In den Allerwertesten gekniffen sind jedoch all diejenigen, welche ausschließlich geklaute Inhalte, Linkspam etc. verwendet haben. Dieses Geschäftsmodell ist seit Panda und Pinguin Geschichte geworden.
Analyse: Was bedeutet das für jeden Homepagebesitzer und auch SEO Maßnahmen ?
Google setzt nach wie vor auf Natürlichkeit und gewisse Regeln. Danach sollte man sich in jedem Fall richten, wenn man auf lange Sicht Erfolg mit seinem Projekt haben möchte. Wenn man keinen Absturz im Ranking riskieren möchte, dann sollte man nach folgenden Gesichtspunkten handeln, oder jemanden beauftragen der sich Entsprechend auskennt.
– Texte mit mindestens 500 Wörtern schreiben
– Texte mit Mehrwert
– Texte mit Bildern aufwerten
– gut strukturiert
– auf natürliches Linkwachstum setzen
– unterschiedliche Linktexte benutzen
– manuelle Eintragungen in Webkataloge etc. mit unterschiedlichem Text
– kein Textspinning ( kommt früher oder später raus das es kein Unique Text ist )
Was kommt nach dem Zoo von Google ?
Die nächste Änderung kommt bestimmt, und sie ist auch schon da mit Venice. Anscheinend hat man genug von den Tierchen, und widmet sich nun den Namen zu, wie man sie eher von Computerbauteilen eines bestimmten Anbieters kennt. 🙂 Venice berücksichtigt insgesamt mehr den Standort des Suchenden, mit anderen Worten analysiert Google anhand der Ip wo man herkommt, und spuckt dann eher solche Homepages in den Suchergebnissen aus, welche eventuell einen regionalen Bezug haben könnten. Insgesamt kommt der Algorythmus also nicht zur Ruhe, man darf gespannt sein was als nächstes kommen wird.
Den Beitrag kommentieren