Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
SEO - Suchmaschinenoptimierung
Wie Google bestraft – Ex-Googler Jonas Weber mit Insights zum Penguin 4.0 Update

Wie Google bestraft – Ex-Googler Jonas Weber mit Insights zum Penguin 4.0 Update

Anton Priebe | 24.10.16

Neben der Funktionsweise des Pinguins erläutert der Ex-Google-Mitarbeiter effektive Gegenmaßnahmen für Betroffene und gibt allgemein gültige SEO-Tipps.

Das erste Penguin Update seit über zwei Jahren versetzte die SEO-Szene in Aufruhr. Viele Betroffene atmeten auf, andere wiederum zitterten ob der Bestrafung durch den Suchmaschinengiganten. Insbesondere das Beispiel von Home24 sorgte für hitzige Diskussionen. Wir sprachen mit dem SEO-Experten Jonas Weber und baten ihn um seine Einschätzung der Situation. Im Interview verrät der ehemalige Google-Mitarbeiter, wie der Pinguin im Detail funktioniert und was er von dem Fall Home 24 hält. Außerdem gibt er Tipps, wie du bei einer Bestrafung am besten vorgehst, und welche SEO-Maßnahmen sich heutzutage am meisten lohnen.

Interview mit Jonas Weber, Ex-Googler und selbstständiger SEO-Berater

OnlineMarketing.de: Hi Jonas, kannst du dich bitte kurz vorstellen?

Jonas Weber, selbstständiger SEO-Berater
Jonas Weber, selbstständiger SEO-Berater

Jonas Weber: Mein Name ist Jonas Weber ich bin selbstständiger SEO Berater (mehr Infos auf meiner Website) und habe in den letzten Monaten auch einige Google Penguin Update Opfer beraten.

Davor habe ich unter anderem bei Google im Search Quality Team in Dublin, Irland gearbeitet und bin nachwievor offizieller Google Developers Expert. Deswegen sind mir die Filter & Penalty Prozesse bei Google gut bekannt. Die teils heftigen Diskussionen in den letzten Tagen haben mich etwas verwundert bzw. verärgert.

Wie so oft wird versucht Google für das eigene falsche Vorgehen den schwarzen Peter zuzuschieben. Dabei wurde der Richtlinienverstoß bewusst in Kauf genommen, über die Konsequenzen haben sich viele Betroffenen jetzt sichtbar beschwert. Für mich ist das unverständlich. Meine Tochter bekommt auch kein Eis mehr, wenn sie sich schlecht benommen hat. Und mit der Ausnutzung einer potentiellen Monopolstellung von Google hat das hier zu keinem Zeitpunkt zu tun.

Welche Intention Googles steht denn hinter dem Penguin Update?

Es ist kein Geheimnis, dass ein wesentlicher Faktor für gute SEO Rankings ein starkes Backlinkprofil ist. Aus diesem Grund hat sich in der Vergangenheit ein großer Marktplatz für den Backlinkkauf entwickelt. Agenturen haben den Kunden eine monatliche Anzahl von neuen Backlinks versprochen, der Kunde pro Backlink bezahlt, teilweise sehr hohe Summen. Das hat sich zumindest vor Penguin für die meisten Beteiligten gelohnt, weil somit die Rankings gesteigert werden konnten.

Penguin ist ein automatisierter Filter, um diese minderwertigen, nicht Google konformen Verlinkungen zu entwerten. Ist der Anteil von zu viel low quality Links zu hoch, im Vergleich zu den guten Backlinks, dann hat der Filter die komplette Website “erwischt”. Die Links werden entwertet, ja die Rankings der Website sogar künstlich herabgestuft, weil die Website nicht mehr vertrauenswürdig ist. Das ist wie auf anderen Plattformen: Raten viele Personen in Form von Bewertungen auf Tripadvisor von einem Restaurant ab, werden viele Interessenten dort nicht mehr hingehen. Es verliert außerdem das Top Ranking auf Tripadvisor. Gleiches gilt für Ärzte auf Jameda, Produkte auf Amazon etc.

Dieser quantitative Linkaufbau über Webkataloge, Artikelverzeichnisse, Linkkauf, Bookmarkverzeichnisse & Kommentar/Forenspam war natürlich immer schon ein Verstoß gegen die Google Richtlinien. Die meisten Beteiligten waren sich dessen auch bewusst. Deswegen kann ich das ganze Gejammere jetzt nur sehr begrenzt nachvollziehen.

Bis zum ersten Penguin Update gab es grundsätzlich vor allem manuelle Abstrafungen von Google, wenn beim Linkbuilding übertrieben wurde. Dieser Weg ist aber nicht skalierbar, deswegen hat Google nach einer effektiveren Methode gesucht. Warum soll Google, wenn die Linkspammer mit automatisierten Tools in kurzer Zeit tausende von Backlinks “aufbauen”, dabei die Websites von vielen anderen Beteiligten zuspammen (hier eins meiner Lieblingsbeispiele dazu), beim manuellen Prozess bleiben? Das ist utopisch und nicht aggressiv genug, um das Problem zu bekämpfen.

Der bessere Weg ist ein automatisierter Filter, der alle Übeltäter auf einmal einfängt. Das ist auch der ehrlichste Weg: Bei einer manuellen Penalty wird eine Website in einem komplizierten Prozess bei Google in meinem früheren Team abgestraft, der Webmaster in den meisten Fällen auch benachrichtigt (was sehr fair ist). Eine andere auch gegen die Richtlinien verstoßende Website kann da durchflutschen und Glück haben. Deswegen ist ein Filter, der alle Websites gleich behandelt, wesentlich fairer und hier geht es nie gegen eine einzige Website, sondern um allgemein gültige Grenzwerte – und zwar für alle betroffenen Websites.

Genau dieser Punkt wird in den meisten Diskussionen komplett falsch wiedergegeben: “Google hat einzelne Websites auf dem Kieker, deswegen wird diese nicht aus dem Filter gelassen”. Das ist fachlich nicht korrekt. Die Website kann erst wieder aus dem Filter rutschen, wenn sie die gewissen Grenzwerte unterschreitet, die sie in den Filter hinein gebracht haben.

Bei Penguin ist das über zwei Punkte möglich: Die schlechten Backlinks identifizieren, über das disavow File entwerten oder noch besser wenn möglich abbauen. Und zweitens: sehr gute, neue Google konforme Backlinks aufbauen. Nichts anderes hilft hier oder ist nötig, da der Filter sich ausschließlich um die Low Quality Backlinks dreht. Wichtig ist es hier, die unterschiedlichen Filter nicht miteinander zu vermischen.

Wie macht sich eine Bestrafung durch Penguin bemerkbar?

In der Vergangenheit war es so, dass Websites beim Penguin Update übergreifend die meisten Rankings verloren haben, wenn sie einen zu hohen Anteil an low quality Backlinks hatten. Anstatt auf Seite 1 rankt die Website dann auf den hinteren Suchergebnisseiten, wenn überhaupt. Um diesen Filter wieder zu lösen, war es notwendig, das Backlinkprofil zu reinigen (Abbau/Entwertung und Aufbau von neuen hochwertigen Backlinks), also an den prozentualen Anteilen zu arbeiten. Dann hatte man die Möglichkeit beim nächsten Penguin Update wieder aus dem Herabstufungs-Filter heraus zu kommen.

Unglücklich war hierbei, dass Google für das letzte Update über zwei Jahre gebraucht hat. Das heißt, wenn eine Website, die sofort aufgeräumt hat, trotzdem weiterhin negativ vom Filter betroffen war. Das war mit Sicherheit nicht die Absicht von Google und dieses Problem war intern bekannt. Ein Google Update ist aber ein technisch sehr komplexes Projekt, wo der nächste exakte Launchtermin nicht ohne weiteres planbar ist.

Meiner Meinung nach war das Penguin Update eines der erfolgreichsten von Google. Gerade nicht Google konforme SEO Methoden hat es hier hart getroffen. Mit Linkdoping gestützte Websites wurde der Boden unter den Füßen weggezogen.

Ich habe eigentlich keinen Fall gesehen, in dem es eine Website unberechtigterweise getroffen hat. Websites, die sich nicht am unnatürlichen Linkaufbau beteiligt hatten, haben zu Recht profitiert. Viele Linkkaufbau-Budgets sind Richtung Erstellung von hochwertigen Website-Inhalten geshiftet, das ist eine gesunde Entwicklung.

Seite 2: Filter und Vorgehen bei Bestrafungen

Kommentare aus der Community

Michael Pröll am 31.01.2017 um 00:03 Uhr

Hallo,
erstmals danke für den ausführlichen Artikel. Eines hat meine Einschätzung bestätigt.
Wenn guter Content mit Text, Videos usw… auf der Webseite vorhanden ist verlängert sich meist die Aufenthaltsdauer des Besuchers.

Da bei mir der Backlinkaufbau nie Vorrang hatte setze ich in Zukunft auch wieder vermehrt auf sehr guten Content um die „fehlenden“ guten Backlinks damit zu ersetzen.

Mal sehen was passiert.

Antworten
kl.-m. am 02.11.2016 um 16:29 Uhr

Bei manuellen Strafen war oft genug zu sehen, dass die Google-Mitarbeiter regelmäßig überfordert waren und nach Gutdünken auch hochwertige Inhalte für minderwertig erklärt haben. Ein Umstand – der bei einem marktbeherrschenden Unternehmen durchaus kritisch zu betrachten ist.
Google melkt die Allmende der Webinhalte aus, braucht nicht per double opt-in zu fragen, ob die Inhalte überaupt aufgenommen werden dürfen. Hat man zuviel Werbung above the fold ist man ein Spammer, während Gott-Google alles mit Werbung zukleistern darf. Kollateralschäden durch negativ-Seo wurden einfach in Kauf genommen.

Antworten
Yilmaz am 31.10.2016 um 19:05 Uhr

Danke für den sehr informativen und ausführlichen Artikel! Ich denke, ich werde die Internetarbeit jetzt auch einer SEO Firma überlassen, dann kann ich mich auch mehr aufs Hauptgeschäft konzentrieren, und ausserdem habe ich richtig Angst bekommen, wegen diesen Abstrafungen, und ein SEO Profi muss sich da ja richtig auskennen können, oder, kann man von so einer SEO Firma Schadensersatz fordern? LG Yilmaz

Antworten
Thomas Berscheid am 31.10.2016 um 10:37 Uhr

Hat vielleicht jemand Erfahrungen zu dem im obigen Artikel platzierten Beispiel unterschrieben mit „Das sind immerhin transparente SEO-Maßnahmen, hier wird sicherlich nichts bestraft / Screenshot von wki-absaugtechnik.de“?

Ich kann mir nur schwer vorstellen, dass es ausreichend ist, über einen schier unendlichen Absatz voller Keywords am Fuß einer Seite, zu schreiben, dass das folgende Keyword-Spamming für die Suchmaschinen gedacht ist. “ […] hier wird sicherlich nichts bestraft.“ ?!?

ich nehme eher folgendes an:
– Fall A) Der Googlebot/-algorithmus erkennt das Spamming und wertet die Seite ab.
– Fall B) Ein menschlicher Quality Tester kommt auf die Seite, entdeckt diesen – m.E. sehr fragwürdigen – Versuch und wertet die Seite ab.

Ich kann die Einschätzung von Jonas Weber hierzu weder nachvollziehen noch glauben. – Aber vielleicht fehlen mir auch notwendige Insights.

Antworten
Anton Priebe am 31.10.2016 um 10:42 Uhr

Hallo Thomas,

das war ein Scherz von uns und stammt nicht von Jonas. Damit es nicht zu Verwirrungen kommt, ändern wir den Text entsprechend ab.

Beste Grüße
Anton

Antworten
Thomas Berscheid am 31.10.2016 um 10:50 Uhr

Aah jetzt ja…
Für mich las es sich so, als sei dies tatsächlich ein Kommentar von Jonas Weber. Das hätte mich schockiert.

Danke für die schnelle Reaktion. – Das macht es definitiv „transparenter“. ;)

Antworten
Tobias am 25.10.2016 um 18:42 Uhr

Danke – wieder was gelernt. Tabellen :).

Antworten
Skeptic am 25.10.2016 um 17:32 Uhr

Sorry, trotz interessantem und wirklich umfangreichen Inhalts wirkt der Artikel bzw. der Schreiber arrogant und überheblich und strahlt genau das aus, was Google seit einiger Zeit vorgeworfen wird.

Zitat: „Auch musste Home24 zunächst mal neue hochwertige Backlinks aufbauen“ Also doch aufbauen, die kommen doch von selbst, oder etwa nicht? Was für eine Aussage.

Google wird dann besser, wenn die Bedeutung von Backlinks an sich abnimmt. Content ist King, nicht nur sagen, sondern auch mal machen.

Antworten
Dani am 14.12.2016 um 14:28 Uhr

Skeptic: Du hast sowas von recht! Überheblich und ohne Verständnis fürs grosse Ganze. Einfach eine ganz normale Monopolisten-Sichtweise ohne betriebswirtschaftliches Verständnis.
@Jonas: Wieviele Jahre hatten/haben Firmen, die sich fair verhalten haben (z.B. kein Linkkauf) erheblichen Nachteil erlitten gegenüber Ihren Konkurrenten. Für eine E-Commerce Unternehmung eigentlich nicht praktikabel nur Schönwetter SEO zu betreiben.

Antworten
eK am 26.10.2016 um 14:48 Uhr

stimme dir voll zu.

Antworten
Stefan am 24.10.2016 um 10:19 Uhr

Super Artikel, auch wenn er für mich ein bisschen nach Reputation Management für die Diskussion über home24 klingt. :-)

Antworten
Peter am 23.10.2016 um 19:21 Uhr

„Hierbei ist Google inzwischen in der Lage hochwertigen Experten Content von schlechter Qualität zu unterscheiden.“

Ich denke nicht, dass man das so pauschal sagen kann. Man muss sich nur mal im (Amazon-)Content-Affiliate umschauen. Nach wie vor ranken hier Seiten auf vorderen Positionen, die ein menschlicher Experte hier niemals positionieren würde.

Antworten
Sacha am 24.10.2016 um 15:46 Uhr

Es ist generell Blödsinn, das Google die Text Qualität erkennen kann. Klar Rechtschreibung und sprachliche Qualität kann brechnet werden. Dazu kommen dann noch Nutzersignale. Alles schön und gut hilft aber nicht wirklich, da man das alles sehr einfach auch mit billig Content manipulieren kann.

Ein sehr gutes Design reicht in der Regel schon um die Nutzerwerte im Rahmen zu halten. Zur Not halt noch ein passendes Video oben einbinden. Und jeder der ein bisschen was im Kopf hat, macht seinen Landingpage Content sowieso hochwertig und nur den Rest billig. Ist natürlich auch Branchen abhängig.

Google ist und bleibt eine Maschine und wer mit seinen Werten halbwegs im normalen Bereich bleibt, der rankt auch. Vor allem wenn er starke Links hat.

Momentan funktioniert ja sogar wieder zusammengestückelter & automatisch generierter Inhalt.

Antworten
Christian Ebernickel am 25.10.2016 um 10:10 Uhr

Ja, natürlich gibt es noch immer Möglichkeiten, Google „minderwertigen“ Content unterzuschieben und damit gute Rankings zu erreichen. Die erwähnten Affiliate-Sites mit mehr oder weniger offensichtlichem Thin Content sind dafür ein gutes Beispiel.
Allerdings bin ich mir nicht sicher, ob dies ein Weg ist, den man wirklich verfolgen sollte: Denn auch ein Projekt mit wenig Content oder fragwürdigen SEO-Techniken kostet Geld und bindet Ressourcen. Dem stehen dann zum Teil erhebliche Risiken in Form von Abstrafungen gegenüber. Kurzfristig mag so etwas funktionieren, mittel- bis langfristig sind solche Projekte und damit auch die getätigten Investitionen gefährdet.
Aus meiner Sicht ist dies kein Weg, den man selber oder seinen Kunden ernsthaft empfehlen sollte.

Antworten
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*