Google bringt mit den Core Web Vitals im kommenden Jahr neue Metriken ins Spiel. Um ganz genau zu sein, handelt es sich bei diesen Daten zwar nicht wirklich um neue Werte. Die Suchmaschine fasst diese nun zu einem Faktor zusammen und wird diesem auch ein entsprechendes Gewicht zuweisen. Die Auswirkungen auf das Ranking einer Seite könnten erheblich sein.
Inhalt
Was sind die Core Web Vitals?
Im Kern handelt es sich bei den neu eingeführten Metriken um Werte, welche die Schnelligkeit einer Seite bestimmen helfen. Möglichkeiten dazu gibt es nämlich einige: Vom ersten vollständig geladenen Element über die Antwortzeit des Servers bis zum vollständig gelesenen Quellcode gibt es zahlreiche Ansätze. Wirklich zufriedenstellend ist keine dieser Methoden. Und reichlich Raum für Manipulation bieten sie ebenfalls.
Vor diesem Problem stand offenbar auch Google und hat einen anderen Ansatz gewählt. Dabei stellt das Unternehmen seine eigene Philosophie an eine bestmögliche User-Experience in den Vordergrund. Mit den Werten, die sich hinter den Begriffen Largest Contentful Paint (LCP), First Input Delay (FID) und dem Cumulative Layout Shift (CLS) verbergen, lässt sich messen, wie lange eine Website braucht, um für den Besucher sinnvoll nutzbar zu sein.
Largest Contentful Paint (LCP)
Mit diesem Wert wird ermittelt, wie lange es dauert, bis der Hauptinhalt einer Seite sichtbar ist. Google geht davon aus, dass der größte Block im Viewport, dem aktuell sichtbaren Bereich auf dem Bildschirm, auch den Hauptinhalt darstellt. Sowohl Textblöcke als auch Bilder, Videos, Animationen oder Grafiken werden verglichen. Ist der Inhalt unmittelbar nach dem Seitenaufruf sichtbar, ist der Wert gut. Handelt es sich aber beispielsweise um ein großes Bild, das erst spät geladen ist, fällt der LCP ab. Google gibt folgende Richtwerte an:
- Gut: unter 2,5 Sekunden
- Verbesserungswürdig: bis zu 4 Sekunden
- Schlecht mehr als 4 Sekunden
First Input Delay (FID)
Der zweite Wert misst, wie lange es dauert, bis ein Nutzer mit einer Seite interagieren kann. Das reicht vom Scrollen über das Anklicken eines Links bis zum Ausfüllen eines Formulars. Gemessen wird vom Zeitpunkt der Interaktion bis zur Reaktion des Browsers.
- Gut: Unter 0,1 Sekunden
- Verbesserungswürdig: bis 0,3 Sekunden
- Schlecht: Über 0,3 Sekunden
Cumulative Layout Shift (CLS)
Der letzte Wert bestimmt die visuelle Stabilität einer Webseite. Bei vielen Bildern, Werbebannern und anderen Ergänzungen, die in unterschiedlicher Schnelligkeit geladen werden, stören die vielen Sprünge, die es dem Besucher erschweren, Inhalte zu konsumieren. Google misst, wie häufig Verschiebungen nach dem ersten Laden einer Seite vorkommen. Dazu verwendet die Suchmaschine einen Wert, der sich aus der impact fraction (wieviel Platz ein Inhalt im Viewport einnimmt) multipliziert mit der distant fraction (wie weit sich ein Inhalt bewegt) ergibt.
- Gut: Unter 0,1
- Verbesserungswürdig: Bis 0,25
- Schlecht: Über 0,25
Google will die optimale Page Experience
Neben diesen drei Werten spielen noch vier weitere eine entscheidende Rolle für die Page Experience:
- Mobile Friendly: Darstellung und Zugänglichkeit eines Webauftritts auf dem Handy.
- Safe Browsing: Keine Viren oder Trojaner auf der Seite, arbeiten mit Verschlüsselungen und der weitgehende Verzicht auf Interstitials
- HTTPS: Da Browser alle http-Seiten inzwischen mit „nicht sicher“ markieren, ist eine entsprechende Umstellung für jedes auch nur halbwegs ernstzunehmende Webangebot obligatorisch.
- Keine aggressiven Interstitials: Als eines der offensichtlichsten Zeichen für eine fragwürdige Webseite sind aggressiv eingeblendete Werbeanzeigen ein klar negatives Google-Signal.
Google hat am 10.11. angekündigt, dass die Core Web Vitals ab Mai in den Suchalgorithmus übernommen werden. Webmaster, SEOs und Seitenbetreiber müssen sich also spätesten mit dem Jahreswechsel mit dem Thema auseinandersetzen, um die entsprechenden Änderungen umzusetzen und nicht abgestraft zu werden.
Zudem sollen die Core Web Vitals regelmäßig erweitert, überarbeitet und ergänzt werden. In welche Richtung sie sich schlussendlich entwickeln und welchen Einfluss sie auf das Ranking haben, wird sich also erst in einige Jahren zeigen.
Core Web Vitals für die eigene Seite auslesen
Es gibt mehrere Wege, die relevanten Daten für den eigenen Webauftritt zu bekommen. Google selbst stellt hier mehrere Tools zur Verfügung. Die Informationen unterscheiden sich nicht wesentlich. Welche Variante Sie schlussendlich nutzen, hängt allein von den eigenen Präferenzen ab.
Lighthouse: Als eigenständiges Web-Developer-Tool von Google liefert Lighthouse reichlich Statistiken und Daten. Hinzu kommen Hinweise, Tipps und Erklärungen, die einem Webmaster als Hilfestellung und Orientierung dienen können. Die dargestellten Informationen gehen allerdings weit über die Core Web Vitals hinaus. Lighthouse dient zudem als Software-Grundlage für die PageSpeed Insights und die DevTools.
PageSpeed insides: Das Google Tool stellt alle Informationen zu den drei Werten LCP, FID und CLS dar und bietet einen schnellen Überblick über die Leistung der eigenen Seite. Voreingestellt ist die mobile Ansicht. Ausgeführt wird der Test auf dem Google-Server.
DevTools: Über das Chrome-Menü gibt es unter dem Punkt Weitere Tools die Entwicklertools. Hier lässt sich neben den DOM-Elementen der Seite, den übertragenen Daten (Netzwerk-Tab) und zahlreichen anderen Optionen auch der Reiter Lighthouse auswählen. Über diesen wird ein Lighthouse-Test direkt auf dem Rechner des Nutzers ausgeführt.
Felddaten über die Search Console: Neben den Labordaten, also den Informationen, die Google bekommt, wenn Bots eine Seite beuchen, sollen die Werte der Core Web Vitals vor allem über Nutzerinformationen kommen. Diese werden durch Chrome bei dem Besuch der Seite erhoben. So soll eine realistische Einschätzung des Seitenaufbaus und -tempos entstehen. Diese Informationen lassen sich über die Search Console einsehen, sobald eine relevante Anzahl an Daten vorhanden ist.
Wie machen Sie Ihre Seite fit für die Core Web Vitals?
In einem halben Jahr werden die neuen Metriken ein Ranking-Faktor. Bis dahin ist Zeit, die entsprechenden Schritte umzusetzen, die Google empfiehlt, um Seiten zu optimieren. Welche das im Einzelnen sind, erklärt das Unternehmen in jedem der oben genannten Tests ausführlich.
LCP – beschleunigte Darstellung
Um den Largest Contentful Paint zu optimieren, ist das Tempo des Seitenaufbaus ebenso wichtig, wie ein durchdachter Ladevorgang:
- Server-Antwortzeiten verbessern: Bei einem langsamen Host können Sie nicht viel verbessern. Buchen Sie ein höherwertiges Paket, wenn das bei Ihrem Anbieter möglich ist. Das schließt oft bessere Server-Reaktionszeiten mit ein. Im Zweifel ist ein Wechsel nötig. Auch ein besseres Caching und dadurch die Umgehung einer bei jedem Besuch Live erzeugten Seite können helfen.
- Ladezeit von Ressourcen: Überprüfen Sie die unterschiedlichen Inhalte auf Ihrer Seite. Insbesondere große Bilddateien führen immer wieder zu Problemen mit der Ladezeit. Diese lassen sich zudem leicht optimieren, entfernen oder ersetzen und sind deshalb ein guter Ansatzpunkt.
- Reduzierung von Elementen, die das Rendering blockieren: Achten Sie darauf, dass der Hauptinhalt Ihrer Seite, der im Viewport angezeigt wird, so schnell wie nur möglich geladen ist. Vermeiden Sie Elemente, die das Rendern stören. Bei diesen handelt es sich um CSS oder JavaScript, deren Effekte sich auch problemlos später ausführen lassen.
FID – schnellere Zugriff
Um den First Input Delay möglichst gering zu halten, müssen Sie sich am Nutzer orientieren:
- Ausführung Code dritter: Je mehr Programme Dritter bei einem Besuch Ihrer Seite aktiviert werden, desto mehr muss ein Browser laden. Reduzieren Sie diese, wo immer möglich. Insbesondere der Facebook Pixel und Retargeting-Software (auch die von Google selbst) fallen durch lange Antwortzeiten auf.
- JavaScript-Code beschleunigen: Überarbeiten Sie Ihren Code. Suchen Sie nach Möglichkeiten, dieses so weit wie möglich zu reduzieren und entfernen Sie doppelte oder überflüssige Instanzen.
- Anzahl Ressourcen reduzieren: Reduzieren Sie die Inhalte auf einer Seite. Suchen Sie nach Möglichkeiten, besonderes umfangreichen Content anders auszuspielen. Starten Sie Videos beispielsweise über einen Bildlink auf einer anderen Seite, komprimieren Sie Dateien oder entfernen Sie überflüssigen Ballast.
- Dateigrößen reduzieren: Große Dateien sind grundsätzlich ein Problem. Bildgrößen anpassen, Animationen optimieren und die Qualität von Videos reduzieren kann für Abhilfe sorgen.
CLS – seriöser Auftritt
Ein schlechter Wert im Cumulative Layout Shift ist ein deutliches Zeichen für ein wenig durchdachtes Design und eine schlampige Programmierung:
- Größenangaben für Bilder: Lassen Sie den Browser von Beginn des Ladeprozesses an wissen, wieviel Platz Bilder, Texte und anderen Inhalte benötigen. Dann werden diese Fläche schon vor dem vollständigen Laden eines JPEGs oder PNGs freigehalten und das Springen des Inhaltes verhindert.
- Inhalte nicht oben einfügen: Stellen Sie sicher, dass Inhalte, die später geladen werden, nicht im oberen Teil der Seite eingefügt werden. Das gilt insbesondere für Werbebanner, betrifft aber häufig auch Grafiken, Animationen und bewegte Bilder, die schlicht eine längere Ladezeit haben.
- Größe von Elementen beibehalten: Achten Sie darauf, dass alle Elemente auch bei Interaktion oder Inhaltswechsel dieselbe Größe aufweisen. Sildeshows mit unterschiedlichen Bildgrößen sind hier ein häufiges Problem, ebenso Mouseover-Effekte und Grafiken.
Wer steht am besten dar? CMS und Shopsoftware im Schnellcheck
Da die meisten Webseiten auf Content Management Systemen laufen, stellt sich zwangsläufig die Frage, welche für die Core Web Vitals am besten gerüstet sind. Sistrix hat dazu eine Untersuchung durchgeführt, die einen ersten Eindruck darüber gibt, wie sich die verschiedenen Programme schlagen. Dazu hat das Analysten-Team einen Satz von 18,5 Millionen Domains abgefragt und die Werte verglichen.
Ein neues CMS muss her
Eine der wichtigsten Erkenntnisse dieses Tests ist, dass Wordpress – mit Abstand das am weitesten verbreitete CMS – schlecht dasteht. Das mag nicht überraschen, denn schließlich bedeutet die hohe Verbreitung zwangsläufig, dass viele veraltete Seiten auf Wordpress laufen. Die zahlreichen Tools, Plug-Ins und Extensions, mit den das CMS erweitert werden kann und die es so beliebt machen, reduzieren auch das Tempo erheblich. Das schlechte Abschneiden ist aber ein klarer Hinweis darauf, dass hier viel Nachholbedarf ist und Webmaster sowie SEOs einiges zu tun haben, sollen die aktuellen Positionierungen gehalten werden.
Noch schlechter geht es nur dem Baukastensystem WIX, welches den letzten Platz belegt. Die Vermutung liegt nahe, dass der Grund hierfür in den Kosten zu finden ist. Wer sich auf WIX verlässt, wird vermutlich nicht allzu viel Budget für einen leistungsfähigen Server stecken und auch von sonstigen Optimierungen absehen. Auf der anderen Seite der Liste steht mit Jimdo allerdings ebenfalls ein Baukastensystem. Warum dieses so viel besser abschneidet, lässt reichlich Raum für Spekulationen.
Das besonders bei Firmen des Mittelstands beliebte CMS TYPO3, mit dem auch wir bei 40komma6 bevorzugt arbeiten, liegt im Ranking auf dem zweiten Platz. Unternehmen, die ihre Webseite auf einem TYPO liegen haben, können also beruhigt in die Zukunft blicken.
Shopsoftware – beliebte Anbieter eher im Mittelfeld
Nicht nur bei den Content Management Systemen gibt es erhebliche Unterschiede. Auch die Shopsoftware ist für die Core Web Vitals unterschiedlich gut gerüstet. Am besten schneidet Lightspeed ab. Die Shopware aus Kanada läuft allen anderen spielend den Rang ab. Das weit verbreitete Shopify landet, ebenso wie Salesforce, im soliden Mittelfeld. Hier sollten einige Überarbeitung die Seite fit für die Zukunft machen. Schlechter sieht es für Nutzer von Magento aus, dass auf einem der hinteren Plätze landet. Schlusslicht ist Woocommerce.
Mehr Nutzerfreundlichkeit oder doch bloß Politik?
Wie eigentlich bei jedem größeren Update gibt Google die Verbesserung der User Experience als Grund für die Änderungen an. Die Auswirkungen könnten in der Tat einschneidend sein, abhängig davon, welches Gewicht der neue Wert im gesamten Algorithmus bekommt. Steigende Nachfrage nach schnelleren Servern, Cloudlösungen und ein beschleunigter Breitbandausbau sind nur einige der möglichen Konsequenzen, wenn der Druck auf Unternehmen und Politik zunimmt.
Auch für die Menschen, die mit der Betreuung von Webseiten befasst sind, ergeben sich durch die Änderungen neue Aufgabengebiete. SEOs und Webmaster müssen nun deutlich mehr als zuvor auch die technische Umsetzung im Blick behalten sowie über das Wissen verfügen, Probleme zu erkennen und Optimierungen umzusetzen. Und auch Web-Developer müssen über den Tellerrand blicken, wollen sie ihren Kunden weiterhin einen Mehrwert bieten.
Für Google ist die Änderung ein weiterer Schritt auf dem Weg zu einem Internet, das klaren Strukturen folgt und so leicht zu durchsuchen bleibt, ganz unabhängig von seiner stetig zunehmenden Größe. Zudem werden konsequent Möglichkeiten abgebaut, eine Seite mit veralteten SEO-Methoden nach vorn zu bringen oder mit fragwürdigen Praktiken Kasse zu machen. Saubere Programmierung, durchdachte Struktur und guter Inhalt sind die drei Pfeiler, auf denen Google das Netz fußen lassen will. Ein Konzept, mit dem sich sicher nur die wenigsten nicht anfreunden können.