Die Folgen einer sogenannten manuellen Maßnahme durch Google, oft auch Google Penalty genannt, gegen eine Webseite können verheerend sein: verlorene organische Sichtbarkeit, Traffic-Rückgang und Umsatzeinbußen.

Dieser Artikel gibt eine Übersicht über alle manuellen Strafen von Google und welche Maßnahmen nötig sind um sie zu beheben.

Abgrenzung: Algorithmus vs. „manuelle Abstrafung“

Vorweg: Es gibt leider viele Fehlinformationen und Fehlinterpretationen über “Google-Strafen”.

Häufig werden Algorithmus-Updates fälschlicherweise mit einer Penalty verwechselt oder gleichgesetzt.

Algorithmische Anpassungen

Tiefgreifende Updates wie Penguin und Panda sind keine Strafen, sondern Anpassungen der Algorithmen und geschehen somit ohne manuelles Eingreifen seitens Google.

Algorithmen basieren auf einer Reihe von Regeln und Berechnungen, um automatisch das gewünschte Ergebnis zu erzielen. Es findet kein manueller, menschlicher Eingriff statt!”

Im Falle von Panda und Penguin besteht das Ziel für Google darin, Websites in den Suchergebnissen “automatisiert” prominenter anzuzeigen, die den Google-eigenen „Qualitätsstandards“ entsprechen. Diese sind unter anderem in den Webmaster-Richtlinien definiert sind.

Tipp:
Google hat in dem Post „More guidance on building high-quality sites“ sehr schön dokumentiert, was sie unter hochqualitativen Content verstehen. Wer also den Panda vertreiben will, sollte diesen Post unbedingt lesen!
Sistrix hat diese Ratschläge auch sehr schön auf Deutsch zusammengefasst.

Google´s Spamfighter

Google beschäftigt aber auch zahlreiche menschliche Qualitätsprüfer, die sogenannten “Google Spamfighter”.

Sie prüfen, bewerten und “bestrafen” wenn nötig Websites manuell. Werden Sie aktiv, dann nehmen sie eine sogenannte “manuelle Maßnahme” vor, welche im gleichnamigen Bericht in der Search Console ausgewiesen werden. Hier sprechen wir dann umgangssprachlich von einer “Google Abstrafung” oder “Google Penalty”.

Sie sind hauptsächlich auf der Suche nach Webseiten, welche die Webmaster-Guidelines verletzen, aber z.B. algorithmisch nicht erfasst werden konnten.

Z.B. versuchen die Spamfighter Linknetzwerke zu erkennen und zu entwerten.

Die Auswirkungen

Die Auswirkungen von manuellen und algorithmischen Maßnahmen seitens Google können sich grundsätzlich sehr ähneln.
Entweder stürzt die ganze Seite in der Sichtbarkeit ab oder nur die von Spam-Maßnahmen betroffenen Bereiche wie z.B. einzelne Verzeichnisse oder Subdomains (früher auch einzelne Keywords).
In gravierenden Fällen kann eine Seite auch ganz aus dem Index genommen werden.

In jedem Fall kommt es zu einem spürbaren Einbruch des organischen Suchmaschinen-Traffics.

Der Unterschied

Es ist sehr wichtig, den Unterschied zu verstehen, ob eine Website von einer manuellen Strafe betroffen ist oder ob ein Algorithmus der Auslöser für die Ranking-Veränderungen ist.
Diese Erkenntnis ist entscheidend bei der Entwicklung der richtigen “Wiederherstellungs-Strategie”.

Der wichtigste Unterschied im Umgang mit einer manuellen Abstrafung gegenüber dem einer algorithmischen Anpassung der Suchergebnisse, ist die Notwendigkeit und Möglichkeit, direkt mit Google zu interagieren!

Zudem habt Ihr die Gewissheit, dass ein konkreter Verstoß gegen die Webmaster-Richtlinien vorliegt!

War eine Algorithmus-Anpassung Grund für die Veränderung, dann liegt meist kein bestimmter Verstoß gegen die Webmaster-Guidelines vor.
Hier ist es eher so, dass Google bei der Bewertung der Seiten zu einem “neuen” Ergebnis kommt und Eure Seiten nicht mehr so hochwertig bewertet hat wie früher. Hier kommt der Panda-Algorithmus (Früher “Panda Updates”) zum Beispiel ins Spiel.
Eventuell liegt aber auch einfach nur ein technischer Fehler vor.
Die Gründe können hier sehr vielschichtig und müssen separat beschrieben werden. (Post kommt noch)

Der Aktionsbericht in der Search Console

Eine Website, die von einem Google Spamfighter bestraft wird, erhält einen “manuellen Aktionsbericht” über die Google Search Console (siehe Grafik).

Meldung GSC: Manuelle Maßnahmen

Meldung GSC: Manuelle Maßnahmen


Sobald der festgestellte Verstoß behoben ist, ist es erforderlich, die Ursachen des Problems sowie die Lösung in einem Antrag auf erneute Prüfung (=reconsideration request) zu erläutern.

Dabei ist es wichtig bei Google “die Hosen runter zu lassen” und sehr detailliert zu beschreiben welche Maßnahmen ihr getroffen habt!
Ein “wir sind jetzt sauber” reicht hier nicht.

Um einer algorithmischen Abwertung zu entkommen gibt es keine Möglichkeit, eine Überprüfungs-Anfrage einzureichen. Ihr seid hier komplett auf Euch allein gestellt.

Cloaking und/oder Sneaky Redirects

Was ist Cloaking?

Als Cloaking bezeichnet man den Vorgang, bei dem den Nutzern andere Seiten angezeigt werden als dem Google-Bot.
Es wird versucht automatisch zu erkennen (per User-Agent-Abfrage und IP-Adress-Analyse), ob der Besucher ein Mensch oder eine Suchmaschine ist.
Wird eine Suchmaschine erkannt werden “speziell optimierte” und aufs Wesentliche reduzierte Seiten ausgeliefert, in der Hoffnung, dass Google die Seiten als hochwertiger und relevanter einordnet. Google erklärt Cloaking so.

Was sind sneaky redirects?

Sneaky Redirects sind “irreführende Weiterleitungen”, die menschliche Besucher auf eine andere Seite leitet, als die welche Google angezeigt wird. Google erklärt dieses Vergehen so.
Beide Handlungen verstoßen gegen die Richtlinien für Webmaster von Google.

Diese Strafe gibt es in zwei Formen:

    • Partielle Abstrafungen ( = „teilweise Übereinstimmung“), die bestimmte Teile einer Website betreffen (z.B. ein bestimmtes Verzeichnis)
  • Seitenweite Abstrafungen (= „Übereinstimmungen auf der ganzen Website“), die sich auf die gesamte Website auswirken.

Maßnahmen zur Behebung

    1. Navigiert zur Google Search Console > Crawl > Fetch as Google und crawlt dann Seiten aus den betroffenen Bereichen Eurer Website.
    1. Vergleicht den Inhalt Eurer Webseite mit dem von Google abgerufenen Inhalt.
    1. Stellt sicher, dass beide Varianten am Ende identisch sind.
    1. Überprüft alle Weiterleitungen und entfernt alle, die…
        1. Besucher an ein unerwartetes Ziel weiterleiten.
        1. die auf Grund bestimmter Bedingungen weiterleiten (z.B.: nur Umleitung von Benutzern, die von einer bestimmten Quelle stammen)
      1. Euch verdächtig vorkommen.
  1. Sendet über die Search Console einen Antrag auf Überprüfung an Google, nachdem diese Probleme behoben sind.

Tipp:
Diese Art von Umleitungen werden oft von CMS-Plugins generiert und können meistens in der .htaccess-Datei nachvollzogen werden, weil sie dort “gesetzt”
werden.

Bilder-Cloaking / “Cloaked Images“

Cloaking gibt es auch für Bilder. Zum Beispiel, wenn man Bilder ausliefert, die:

    • von einem anderen Bild verdeckt werden.
    • sich vom angezeigten Bild unterscheiden.
  • die Benutzer vom Bild weiterleiten.

Auch hier liegt Cloaking vor.

Maßnahmen zur Behebung

    1. Zeigt Google genau das gleiche Bild wie den Nutzern Eurer Website.
  1. Sendet nach der Behebung des Problems einen Antrag auf Überprüfung.

Tipp:
Überprüft alle Plugins, die Ihr installiert habt, um sicherzustellen, dass sie kein Problem mit Bilder-Cloaking verursachen.

Gehackte Webseite

Hacker sind ständig auf der Suche nach Sicherheitslücken und Schwachstellen in WordPress und anderen Content-Management-Systemen, um schadhafte Inhalte und Links unterzubringen.
Dies geschieht oft getarnt, ist schwer zu entdecken und zu beheben.

Wenn Google dies feststellt, wird über dem Snippet ein Hinweis „Diese Seite wurde möglicherweise gehackt“ in das Suchergebnis der betroffenen Seite eingefügt. Dies führt oft zu einer Herabstufung in den organischen Suchergebnissen.

Google SERP: "Webseite gehackt!"

Google SERP: „Webseite gehackt!“

Maßnahmen zur Behebung

    1. Kontaktiert Euren Webhoster und baut Kontakt zu seinem Support-Team auf. Einige Hoster unterstützen Euch bei Lösungsfindung und Wiederherstellung Eurer Seite.
    1. Isoliert Eure Website, um weitere Schäden zu vermeiden. (Google-Anleitung: “Stellen Sie ihre Seite unter Quarantäne”)
    1. Schaut Euch in seriösen Online-Ressourcen und Communities um.
      Dort erhaltet ihr praktische Informationen und Ratschläge rund um die Wiederherstellung.
    1. Verwendet die Google Search Console, um die Art des Angriffs zu identifizieren. Klärt die Frage: „Handelt es sich um eine Spam-Attacke oder Malware?“
      (Mehr Infos hier direkt von Google)
    1. Identifiziert die Schwachstelle, um herauszufinden, wie der Hacker Zugriff auf Ihre Seite erlangt hat.
    1. Schließt die Schwachstelle auf Eurer Webseite.
  1. Fordert eine Überprüfung bei Google (Search Console) an und bittet Google den Status der gehackten Seite zu überprüfen bzw. aufzuheben.

Tipp:
Habt immer ein sauberes und aktuelles Backup Eurer Website. Installiert regelmäßig die Sicherheits-Updates für Euer CMS oder Shop-System. Gerade für WordPress-Systeme gibt es eine große Auswahl an Firewall- und Sicherheits-Plugins um die eigene Website vor Angriffen zu schützen. Hier eine Übersicht bekannter WordPress-Sicherheits-Plugins.

Keyword-Stuffing und/oder Hidden Text

Was ist Keyword Stuffing und Hidden Text?

Wie die Überschrift sagt geht es hier darum, dass die Seite übermäßig mit Keywords “vollgestopft” wurde (= Keyword- Stuffing).
Gerne wird dieser “überschüssige” Text dann mit gewissen Techniken (z.B. CSS) optisch verborgen, damit es den Besucher nicht irritiert oder stört (= Hidden Text).
Google erklärt es so.

Auch hier kommt es zu Abstrafungen durch Google und wiederum in zwei Ausprägungen:

    • Partielle Abstrafungen („teilweise Übereinstimmung“), die bestimmte Teile einer Website betreffen (z.B. ein bestimmtes Verzeichnis, wo das Keyword Stuffing vorgenommen wurde)
  • Seitenweite Abstrafungen (= „Übereinstimmungen auf der ganzen Website“), die sich auf die gesamte Website auswirken.

Maßnahmen zur Behebung

    1. Navigiert zu Google Search Console > Crawl > Fetch as Google und crawlt dann Seiten von den betroffenen Bereichen Eurer Website.
    1. Sucht nach Text, der die gleiche oder ähnliche Farbe wie der Textkörper der Webseite hat.
    1. Sucht nach Text der mittels CSS-Styling oder Positionierung versteckt oder aus dem sichtbaren Bereich geschoben wurde.
    1. Entfernt oder passt versteckten Text so an, dass er für einen menschlichen Benutzer wahrnehmbar ist.
    1. “Entschärft” oder entfernt Absätze mit sich wiederholenden Worten ohne Kontext.
    1. Korrigiert <title> Tags und Alt-Texte mit übermäßig vielen Wiederholungen von Keywords.
    1. Entfernt alle weiteren Elemente Eurer Webseite, die Keyword Stuffing darstellen könnten und für Eure Besucher keinen Mehrwert darstellen.
  1. Sendet einen Antrag auf Überprüfung an Google, nachdem diese Probleme behoben wurden.

Tipp:
Verwechselt Tabbed-Content (z.B. Tabs, Accordion-Menüs u-ä.) oder Dropdowns, die mit Java-Script realisiert wurden nicht mit verstecktem Text.
In einer zunehmend mobilen Welt sind das durchaus akzeptable Möglichkeiten, um Inhalte auf einer Webseite darzustellen.
Google hat das hier durch John Müller auch bestätigt.

“Reine Spamwebsite”

Diese Maßnahme richtet sich an Webseiten, die sich aggressiv einer Kombination von Spam-Methoden bedienen.
Es geht hier z.B. um die Verwendung von automatisiert erstellten Contents ( = gibberish content), gescrapten Inhalten und auch Cloaking, neben anderen gravierenden Verstößen gegen die Richtlinien für Webmaster.

Dies ist eine weitere Strafe, die in zwei Ausprägungen vorliegt:

    • Partielle Abstrafungen („teilweise Übereinstimmung“), die bestimmte Teile einer Website betreffen (z.B. ein bestimmtes Verzeichnis oder Sub-Domain, welche die Spam-Inhalte beinhaltet)
  • Seitenweite Abstrafungen (= „Übereinstimmungen auf der ganzen Website“), die sich auf die gesamte Website auswirken.

Maßnahmen zur Behebung

    1. Wenn nicht geschehen, lest die Google Webmaster Richtlinien und legt sie Euch unters Kopfkissen.
    1. Stellt Euch die Frage, ob Eure Seite wirklich einen Mehrwert für den Besucher erzielt und wie nachhaltig Euer scheinbarer “Erfolg” bis zur Penalty war.
  1. Sendet nach der Behebung des Problems einen Antrag auf Überprüfung.

Tipp:
Wenn dies die zweite Maßnahme gegen Euer Web-Projekt ist, schaltet es ab. Es ist sehr unwahrscheinlich, dass Google dir eine weitere Chance gibt, nachdem du ihr Vertrauen gebrochen hast.

Spammy Strukturiertes Markup (Structured Data)

Wenn die Richtlinien für Rich Snippets und Markup-Inhalte nicht beachtet werden, kann das zu einer Abstrafung führen.
Wer z.B. Content für den User unsichtbar mit Markups und strukturierten Daten auszeichnet oder irreführende und irrelevante Auszeichnungen einfügt um prominenter in den Suchergebnissen zu erscheinen, wird von Google abgestraft.
(Exkurs: Was sind strukturierte Daten und dadurch “angereicherte Suchergebnisse”?)

Diese Strafe gibt es auch in zwei Formen:

    • Partielle Abstrafungen („teilweise Übereinstimmung“), die bestimmte Teile einer Website betreffen (z.B. ein bestimmtes Verzeichnis oder Subdomain, welche die spammigen Markups enthält.)
  • Seitenweite Abstrafungen (= „Übereinstimmungen auf der ganzen Website“), die sich auf die gesamte Website auswirken.

Maßnahmen zur Behebung

    1. Aktualisiert vorhandene Markups oder entfernt alle Markups, die gegen die Richtlinien von Google für Rich Snippets verstoßen.
  1. Sendet über die Search-Console einen Reconsideration Request, nachdem das Markup korrigiert wurde.

Tipp:
Widersteht der Versuchung ungerechtfertigt Rich Snippets zu generieren um Eure Suchergebnisse zu pimpen. Auf lange Sicht rächt sich so ein Vorgehen. Und wer weiß schon, ob Google nicht ein Gedächtnis hat und ihr irgendwann aufgrund zu vieler Vergehen komplett in Ungnade fallen werdet?

Thin Content ohne Mehrwert (No Added Value)

Wer eine manuell Maßnahme wegen Thin Content erhält, der hat Seiten von minderwertiger Qualität oder ohne nützliche Inhalte veröffentlicht.

Beispiele für Seiten, die häufig Inhalte von minderwertiger Qualität mit geringem oder gar keinem Mehrwert aufweisen:

  • Geringe Qualität in z.B. (Gast-) Blog-Posts.

Diese Strafe gibt es auch in zwei Ausprägungen:

    • Partielle Abstrafungen („teilweise Übereinstimmung“), die bestimmte Teile einer Website betreffen (z.B. ein bestimmtes Verzeichnis mit schwachen Inhalten)
  • Seitenweite Abstrafungen (= „Übereinstimmungen auf der ganzen Website“), die sich auf die gesamte Website auswirken.

Maßnahmen zur Behebung

    1. Identifiziert und entfernt automatisch generierte oder “gespinnte” Inhalte.
    1. Identifiziert Affiliate-Seiten, die keinen Mehrwert über das hinaus bieten, was der Hersteller oder Händler anbietet. Erweitert entweder den Content oder löscht diese Seiten.
    1. Nutzt Software zur Erkennung doppelter Inhalte (= duplicate content), um Inhalte zu identifizieren, die an auch anderer Stelle im Web gefunden werden. Entfernt, erweitert und/oder ersetzt diesen Inhalt.
    1. Identifiziert Inhalte mit geringer Wortzahl und baut den Content darauf gegebenenfalls aus, um nützlich und informativ zu sein.
    1. Schaltet Eure Doorway-Pages ab.
  1. Sendet einen Antrag auf Überprüfung, nachdem Ihr Eure Seiten aufgewertet habt.

Tipp:
Investiert Zeit und Ressourcen in die Erstellung von Inhalten, die sowohl einzigartig als auch nützlich sind. Alles andere bringt keinen nachhaltigen Erfolg.

Unnatürliche Links zu Eurer Website

Dies ist bei weitem die häufigste Strafe. Betroffen können einzelne Keywörter, URLs , Verzeichnisse oder die ganze Domain sein. Die Ursache ist immer die gleiche:

Kauf von Links und/oder Teilnahme an Link-Programmen zur Manipulation von organischen Suchergebnissen.

Da Backlinks immer noch zu den Top Ranking-Kriterien gehören ist die Versuchung groß hier mit Geld gezielt nachzuhelfen, also Budget dafür aufzuwenden, dass andere Webseiten-Betreiber Backlinks zur eigenen Seite setzen.

Links are still No#1 Ranking Fact

Links are still No#1 Ranking Factor

https://youtu.be/l8VnZCcl9J4


Dies ist ein klarer Verstoß gegen die Webmaster-Richtlinien von Google… …wenn diese Links nicht mit einem nofollow-Attribut “entwertet” wurden.
Das Link-Attribut “nofollow” verhindert die Pagerank-Vererbung und somit die Möglichkeit Rankings zu manipulieren. (Siehe Post von SEO Südwest)

Maßnahmen zur Behebung

    • Ladet die Links zu Eurer Website von der Google Search Console herunter.
    • Nutzt wenn möglich weitere Link-Quellen (z.B. kostenpflichtige Tools wie Ahrefs oder die LinkResearchTools) um eine möglichst vollständige Datenbasis Eurer eingehenden Links zu erzeugen.
    • Überprüft alle Links, um festzustellen, welche gegen die Richtlinien von Google verstoßen könnten. Ein Anhaltspunkt sind hier Links mit hartem Keyword-optimierten Anchor-Text.
      (Bei großen Domains mit vielen Links lohnt es sich auch auf Tools wie die LinkResearchTools zurück zu greifen. Hier bekommt man die Links automatisch “bewertet” und Vorschläge welche Links “toxisch” sein könnten. Eine manuelle bewertung ist aber zwingend notwendig.
    • Versucht so viel wie möglich zu bereinigen.
        • versucht gekaufte Links entfernen zu lassen, wenn es der Aufwand rechtfertigt.
      • wenn es sich um Links handelt, die Traffic auf Eure Seiten bringen, bittet den Webmaster das Link-Attribut  rel=“nofollow in den Links zu ergänzen.
    • Alternativ könnt Ihr diese Links auch über das Disavow-Tool an Google melden und dort “entwerten” lassen. (Anleitung Disavow-Tool)
      Dieser Weg ist meist der viel schnellere.
  • Wenn eine manuelle Penalty vorliegt, muss, nachdem Ihr Euer Linkprofil bereinigt habt, ein Antrag auf Überprüfung gesendet werden.

Tipp:
Investiert Zeit und Ressourcen in den Aufbau geiler Contents, die Besucher begeistern. Dann kommen die Links von ganz alleine. Google ist mittlerweile sehr gut in der Erkennung von gekauften Links. Spart Euch daher diese Mühe!

Unnatürliche Links von Eurer Website

Auf Link-Verkäufer (Link-Netzwerke) hat es Google ganz besonders gerne abgesehen.
Faktisch sind alle Links (egal in welcher Stückzahl), die zum Zweck der Manipulation von Suchmaschinen-Rankings geschaffen wurden, ein Trigger für manuelle Strafe durch Google.

Im Google-Sprachgebrauch werden diese als „unnatürliche künstliche, irreführende oder manipulative ausgehende Links“ bezeichnet.

Diese Strafe gibt es auch in zwei Formen:

    • Partielle Abstrafungen (= „teilweise Übereinstimmung“), die bestimmte Teile einer Website betreffen (z.B. ein bestimmtes Verzeichnis, woraus die fragwürdigen Links gesetzt wurden)
  • Seitenweite Abstrafungen (= „Übereinstimmungen auf der ganzen Website“), die sich auf die gesamte Website auswirken.

Maßnahmen zur Behebung

    • Entfert oder ändert diese Links, indem Ihr ein rel=“nofollow“-Attribut hinzufügt, damit sie den PageRank nicht mehr weiter an die Zielseite vererben können.
  • Sendet eine Anfrage zur Überprüfung über die Search Console, nachdem alle kritischen ausgehenden Links bereinigt wurden.

Tipp:
Versucht nicht Google hinters Licht zu führen, in dem Ihr nur einige der Links entschärft. Google versteht da keinen Spass. Also richtig großes Reinemachen ist angesagt!

Nutzergenerierter Spam

Wird in der Search-Console eine Meldung zu “Nutzergeneriertem Spam” angezeigt, hat Google Spam-Content auf der Seite gefunden, der von Nutzern generiert wurde.

Diese Art von Spam ist üblicherweise auf Forumseiten, in Gästebucheinträgen, Kommentar-Bereichen oder in Nutzerprofilen zu finden.
Aber auch Sicherheitslücken in CMS-Systemen können dafür ausgenutzt werden. Hier ein Beispiel aus dem echten Leben (mein Blog wurde mal Opfer).

Bei dieser Spam-Thematik  wird versucht (meist automatisiert) Content auf Portalen zu platzieren, die meistens (versteckte) Links enthalten.

Wichtig ist hierbei zu wissen: Nutzergenerierter Spam führt gemäß den Google-Richtlinien zu dieser Spam-Technik nicht sofort zu einer Herabstufung in den Suchergebnissen. Google geht logischerweise erstmal nicht davon aus, dass hier ein Fehlverhalten des Webmasters vorliegt.

Google sagt:

Sollte Ihre Website jedoch zu viel nutzergenerierten Spam enthalten, kann sich dies auf unsere Einschätzung der Website auswirken und letztlich zu einer manuellen Maßnahme gegen die gesamte Website führen.”

Auch diese Maßnahme gibt es theoretisch in zwei Formen:

    • Partielle Abstrafungen (= „teilweise Übereinstimmung“), die bestimmte Teile einer Website betreffen
  • Seitenweite Abstrafungen (= „Übereinstimmungen auf der ganzen Website“), die sich auf die gesamte Website auswirken.

Maßnahmen zur Behebung

    • Identifiziert Seiten, auf denen Benutzer Kommentare hinterlassen können.
    • Sucht nach Spam in:
        • Anzeigen, die sich als Kommentare darstellen.
        • Kommentare, die nicht relevante Links enthalten.
        • Spammy Benutzernamen wie „Viagra“, “Casino” und ähnlichen.
      • Automatisch generierte, generische oder nicht thematische Kommentare.
    • Entfernt alle spammy und unangemessenen Inhalte.
  • Fordert eine Überprüfung über die Search-Console an, sobald Eure Website bereinigt ist und nicht mehr gegen die Vorschriften verstößt.

Tipp:
Wenn möglich sollte vom User generierter Content nie ungeprüft online gehen! Bei Kommentaren und Foren lässt sich das relativ leicht über entsprechende Plugins umsetzen.

Abgelaufene Jobs

Mittels strukturierter Daten lassen sich Stellenausschreibungen direkt und prominent auf der Suchergebnisseite von Google platzieren. (Siehe Grafik)

Stellenanzeigen SERPS

Stellenanzeigen SERPS


Es gibt zwei Möglichkeiten, dieses umzusetzen:

  • Über Stellenportale:
    Alle großen Jobportal (Monster, Stepstone,stellenanzeigen.de, etc.) verwenden strukturierte Daten-Auszeichnungen für die Stellenangebote.


Die Gefahr beim Posten auf Eurer eigenen Website besteht darin, dass man sich der Gefahr eine Abstrafung aussetzt, wenn man die Stellenangebote nicht aktuell hält und nicht mehr verfügbare Jobs immer noch anzeigt.
Dann erhält man irgendwann die Meldung über eine manuelle Maßnahme in der Search-Console:

„Richtlinienverstoß bei strukturierten Daten – Strukturierte Daten vom Typ „JobPosting“ für abgelaufenes Stellenangebot“

Warnung Job Posting Search Console

Warnung Job Posting Search Console

Google will auf der Suchergebnisseite natürlich die optimale Nutzererfahrung wahren und geht daher gegen solche “Karteileichen” vor.

Maßnahmen zur Behebung

    • Entfernt das strukturierte Markup von JobPosting von der Seite.
    • Entfernt die Seite vollständig (so dass sie einen Statuscode 404 oder 410 zurückgibt).
    • Fügt der Seite ein Noindex-Meta-Tag hinzu.
    • Stellt sicher, dass das Attribut “ validThrough “ gefüllt ist und in der Vergangenheit liegt. (siehe Google Hilfe)
  • Stellt einen Antrag auf Überprüfung

Fazit

Das ganze kann man eigentlich in einen Satz packen:

Hört auf Google zu bescheissen und baut geile Webseiten!

Es mag heute immer noch genug Schlupflöcher im Algorithmus geben. Aber diese werden nach und nach gestopft. Wer an seinem Projekt langfristig Freude haben will, der sollte sich einfach an die Regeln halten und an der geilsten Nutzererfahrung für seine Besucher arbeiten.

Coole Links: