Inhaltsverzeichnis:
Die Neuerungen in den Webmaster-Richtlinien von Google
Vor ein paar Tagen hat Google die Richtlinien für Webmaster aktualisiert. Da mich gerade eine Grippe ans Bett fesselt, habe ich mir mal die Mühe gemacht das Update der Richtlinien mit der vorherigen Version (Wayback-Machine sei Dank) zu vergleichen und nachfolgende Änderungen und Ergänzungen gefunden. Die in den Richtlinien aufgeführten Qualitätsrichtlinien wurden übrigens nicht verändert.
Neuer Aufbau
Google hat die Richtlinien neu strukturiert. Früher teilten sie sich in die Unterpunkte „Design- und Inhaltsrichtlinien“, „Technische Richtlinien“ und „Qualitätsrichtlinien“.
Die ersten beiden Punkte verschmelzen nun unter „Allgemeine Richtlinien“ und unterteilen sich dann in die logischen Webmaster-Fragestellungen:
- „Google beim Finden der Seiten unterstützen“
- „Google beim Erkennen der Seiten unterstützen“
- „Besucher beim Verwenden der Seiten unterstützen“
Neues in den Richtlinien
Im Bereich „Google beim Finden der Seiten unterstützen“ sind mir folgende neue Richtlinien aufgefallen:
Alt-Tags zum Beschreiben von Linkzielen
Damit Google alle Seiten einer Webseite finden und crawlen kann, galt bisher lediglich die Empfehlung: „Jede Seite sollte über mindestens einen statischen Textlink erreichbar sein.“
Jetzt wird dieser Hinweis um den Zusatz erweitert:
Der verweisende Link sollte entweder Text oder im Fall von Bildern ein ALT-Attribut enthalten, das für die Zielseite relevant ist.
Dass der Link-Text zur Zielseite passen sollte ist nicht wirklich neu. Aber dass man mit dem Alt-Attribut nicht nur das Bild selbst beschreibt, sondern auch die Zielseite hinter einem verlinkten Bild, ist mir neu. Aber leuchtet irgendwie ein.
Anzahl der Links auf einer Seite
Bisher gab Google nur den guten Rat, die Anzahl der Links auf ein „vernünftiges Maß“ zu begrenzen. Jetzt ergänzen sie:
…Sie sollten maximal einige Tausend umfassen.
Google traut sich nun also zu einer etwas konkreteren Aussage, dass einige tausend Links pro Webseite ok sind. Ich finde die Aussage schwierig, da man bei dieser Fragestellung immer das jeweilige Projekt und Crawlbudget im Auge behalten sollte. Bei kleineren und neuen Webseiten ist es mit Sicherheit nicht ratsam tausende von Links je Seite zu haben.
Crawling-Budget / Unbegrenzte Bereiche
Lang hat Google den Begriff „Crawling-Budget“ selbst gemieden, nutzt ihn jetzt aber erstmals im Zusammenhang mit der Nutzung der robots.txt.
Bisher gab Google die Empfehlung, dass man über eine robots.txt die Möglichkeit hat, den Google-Bot von unwichtigen Seiten fernzuhalten, um Crawl-Budget zu sparen. In der neuen Version der Richtlinien geben die Macher der Richtlinien nun die konkrete Anweisung:
Verwalten Sie Ihr Crawling-Budget mithilfe der robots.txt-Datei auf Ihrem Webserver, indem Sie das Crawling von unbegrenzten Bereichen wie Suchergebnisseiten verhindern.
Es wird also konkret darauf hingewiesen, dass man mittels robots.txt Suchergebnis-Seiten oder auch Filter-Seiten effektiv vor dem Suchrobot verstecken kann und damit „Crawling-Budget“ einspart.
Im Bereich „Google beim Erkennen der Seiten unterstützen“ sind mir folgende Neuerungen aufgefallen:
Wichtige Inhalte sofort sichtbar
Google schreibt:
Stellen Sie sicher, dass die wichtigsten Inhalte Ihrer Website standardmäßig sichtbar sind. Google ist in der Lage, HTML-Inhalte zu crawlen, die sich hinter Navigationselementen wie Tabs oder maximierbaren Bereichen verbergen. Wir stufen diese Inhalte jedoch als weniger zugänglich für Nutzer ein und sind der Ansicht, dass die wichtigsten Informationen in der Standard-Seitenansicht sichtbar sein sollten.
So richtig brandneu ist die Thematik nicht, da John Müller bereits Ende 2014 in einem Hangout mit Barry Schwartz bestätigte, dass „nicht sofort sichtbarerer Content“ abgewertet wird. Aber hiermit haben wir nun also die schriftliche Bestätigung von Google. 😉
Werbliche Links „abwerten“
In Bezug auf Werbelinks wird Google nun auch sehr konkret. Neben der wohl beliebtesten Methode, der Entwertung per „nofollow“-Attribut, empfiehlt Google auch das Crawlen dieser Links per robots.txt zu verhindern. Bei manchen Seiten ist das mit Sicherheit viel zu aufwändig. Aber eine gute Alternative, an die ich bis jetzt auch nicht gedacht habe.
Ergreifen Sie angemessene Maßnahmen, um sicherzustellen, dass sich Werbelinks auf Ihren Seiten nicht auf das Suchmaschinen-Ranking auswirken. Verhindern Sie zum Beispiel mithilfe von robots.txt oder
rel="nofollow"
, dass Werbelinks gecrawlt werden.
Im Bereich „Besucher beim Verwenden der Seiten unterstützen“ finden wir folgende Neuerungen:
Alt-Attribute nutzen!
Auch an dieser Stelle weist Google noch einmal auf die sinnvolle Befüllung der Alt-Attribute hin. Wenn Bilder als Text-Elemente verwendet werden, dann sollten diese über das Alt-Attribut aussagekräftig beschrieben werden. In den alten Richtlinien wurde darauf nicht konkret eingegangen.
Geändert: Fehlerhafte Links und HTML-Syntax
Aus der Richtlinie: „Überprüfen Sie Ihre Seiten auf fehlerhafte Links und sorgen Sie für eine korrekte Verwendung der HTML-Syntax“ wurde nun:
Stellen Sie sicher, dass alle Links auf Live-Webseiten verweisen. Verwenden Sie gültiges HTML.
Die neue Richtlinie verlinkt nun direkt auf den W3C-Validator. Also sauberes HMTL ist immer noch Pflicht!
Mobile-Friendly
Überraschend finde ich, dass bisher kein Absatz zu diesem Thema in den Richtlinien vertreten war. Nun legt Google nach und ist dann auch mal im Mobile-Zeitalter angekommen. 😉
Gestalten Sie Ihre Website für alle Gerätetypen und -größen, einschließlich Desktop-Computern, Tablets und Smartphones. Mithilfe des Tools für den Test auf Optimierung für Mobilgeräte können Sie feststellen, wie gut Ihre Seiten auf Mobilgeräten funktionieren, und Feedback zu erforderlichen Korrekturen erhalten.
SSL-Verschlüsselung
Die Empfehlung, Webseiten per https zu verschlüsseln, zieht nun auch in die Richtlinien ein. Google sieht es als „empfehlenswert“ an Seiten mit denen der User interagiert, verschlüsselt auzuliefern.
Barrierefreiheit
Die letzte neue Richtlinie bezieht sich auf Menschen mit Sehbehinderung. Google empfiehlt uns, sicherzustellen, dass sehbehinderte Menschen unsere Webseiten auch mit einem Screenreader gut lesen können sollten. Somit wird dann auch ein Schuh draus, dass an anderer Stelle der Richtlinien direkt auf die Nutzung der Alt-Attribute hingewiesen wird.
Fazit:
Google legt in meinen Augen mit diesem Update deutlich mehr Wert auf den User. Kurz und knapp mein Fazit:
Baut sichere sowie verständliche und logisch strukturierte Webseiten, die schnell laden, auf jedem Device dargestellt werden können und für jedermann zugänglich sind!
… dann klappt’s auch mit dem SEO! 😉