Inhalt des Beitrags
Googles Site Quality Score – Auswirkungen auf das Ranking
Google deutet schon seit langem auf einen internen Site-Qualitätsscore hin – eine Kennzahl auf Domänen- oder Subdomänenebene, die die Gesamtqualität einer Website widerspiegelt.
Im Gegensatz zu herkömmlichen Signalen auf Seitenebene ist dieser Site-weite Score abfrageunabhängig und beeinflusst die Leistung aller Seiten einer Site bei der Suche.
Tatsächlich beschreiben mehrere Patente von Google Systeme zur Bewertung der Qualität einer Website als Ganzes und zur Verwendung dieser Punktzahl in Rankings:
Ein Google-Patent (Miterfinder von Navneet Panda, bekannt durch das „Panda“-Update) beschreibt die Ermittlung einer „Bewertung für eine Site …, die ein Maß für die Qualität der Site darstellt“, basierend auf Daten zur Benutzerinteraktion.
Konkrete Vorschläge für Quality Score
Konkret wird vorgeschlagen, die Verweildauer der Nutzer auf den Seiten als Indikator für die Qualität zu messen. Dieser Qualitätsfaktor dient dann als Ranking-Signal, um die auf einer Website gefundenen Ressourcen im Vergleich zu den auf einer anderen Website gefundenen Ressourcen zu bewerten und sogar zu entscheiden, wie häufig die Seiten dieser Website gecrawlt oder indexiert werden sollen.
Mit anderen Worten: Wenn eine Site als qualitativ hochwertiger eingestuft wird, werden ihre Seiten möglicherweise höher eingestuft und leichter indexiert als die Seiten einer Site mit geringerer Qualität.
Ein weiteres Patent beschreibt die Berechnung der Qualität einer Website anhand des Verhältnisses bestimmter Nutzeranfragen. Es schlägt eine Bewertung vor, bei der der Zähler das Nutzerinteresse an der Website darstellt (z. B. die Anzahl eindeutiger Anfragen, die explizit auf die Website verweisen, wie Navigations- oder Markensuchen) und der Nenner das allgemeine Nutzerinteresse an den Seiten der Website darstellt (z. B. Anfragen, bei denen die Seiten der Website in den Ergebnissen erscheinen).
Das resultierende Verhältnis misst effektiv, wie oft Benutzer gezielt nach dieser Site suchen und wie oft sie nur zufällig darauf stoßen – ein Zeichen für die Autorität und Vertrauenswürdigkeit der Site.
Auch in diesem Patent heißt es, dass der Site-Qualitätsfaktor „als Signal verwendet werden kann, um Suchergebnisse …, die auf einer Site gefunden wurden, im Vergleich zu … einer anderen zu bewerten“ .
Es wird sogar darauf hingewiesen, dass ein hoher Qualitätsfaktor für eine Website alle Seiten dieser Website verbessern kann: „Der Qualitätsfaktor einer Website kann als Maß für die Berechnung der Bewertungen für Ressourcen dieser Website verwendet werden“, d. h. er kann das Seitenranking basierend auf der allgemeinen Reputation der Website verbessern oder verschlechtern. Insbesondere Googles Patente und Schriften behandeln „Website-Qualität“ als eine Eigenschaft, die in verschiedenen Bereichen gelten kann – eine ganze Domain, eine Subdomain oder sogar ein bestimmtes Unterverzeichnis können für die Qualitätsbewertung jeweils als „Site“ betrachtet werden.
Dies bedeutet, dass Google die Qualität auf der Ebene der Stammdomäne (example.com) oder detaillierter (z. B. Subdomäne en.example.com oder Abschnitt example.com/blog/) bewerten kann.
In einem Patent wird sogar die manuelle Pflege von „Whitelists“ mit qualitativ hochwertigen Websites und von „Blacklists“ mit qualitativ minderwertigen Websites erwähnt, die offline ermittelt werden. Dies erinnert daran, dass frühe Qualitätsalgorithmen (wie Panda) neben der algorithmischen Bewertung manchmal auch von Menschen kuratierte Website-Beurteilungen enthielten.
Zusammenfassend bestätigen Googles eigene Untersuchungen und sein geistiges Eigentum, dass seitenweite Qualitätssignale vorhanden sind.
Diese Signale können das Ranking aller Seiten einer Domain und die Eignung für spezielle Suchfunktionen beeinflussen.
Eine Site mit überragenden Qualitätsmetriken (starkes Engagement, anerkannte Autorität usw.) erhält eine Art Aufwertung auf Domänenebene, während eine Site, die als minderwertig gekennzeichnet ist, eine seitenweite Herabstufung der Rankings oder eine verringerte Indexierungshäufigkeit hinnehmen muss.
Dies deckt sich mit den Beobachtungen von SEO-Experten bei großen Updates wie Panda: Manche Websites wurden scheinbar als Ganzes „bewertet“ und stiegen oder fielen gemeinsam.
Dateneinblicke: Qualität vs. Sichtbarkeit bei Suchfunktionen
Über Patente hinaus wurde in SEO-Datenstudien und -Experimenten versucht, die Qualität von Websites und ihre Auswirkungen auf die Suchsichtbarkeit zu quantifizieren.
Während Google keinen öffentlichen Wert für die „Site-Qualität“ bereitstellt, versuchen Drittanbieter-Messwerte (wie die Domain Authority von Moz oder das Domain Rating von Ahrefs), die allgemeine Stärke einer Site einzuschätzen.
Dabei handelt es sich um unvollkommene Messwerte, die oft auf Linksignalen basieren, aber sie erfassen, wie die Reputation auf Domänenebene mit den Rankings korreliert.
Direktere Analysen, insbesondere im Zusammenhang mit Googles Algorithmus-Updates und SERP-Funktionen, bieten Hinweise darauf, wie Google mit der Qualität von Websites umgeht:
Berechtigung für Rich Results:
Es gibt Hinweise darauf, dass bestimmte Suchverbesserungen (Rich Snippets, Bewertungssterne, FAQ-Snippets usw.) eine Qualitätsschwelle auf Site-Ebene haben.
John Mueller von Google hat ausdrücklich erklärt, dass „die Qualität einer Website Einfluss darauf haben kann, ob Google Rich Results einer Website anzeigt oder nicht“. In einem Fall verlor eine Website nach einer Neugestaltung alle Rich-Result-Snippets. Mueller erklärte, dass eine wesentliche Änderung Google wahrscheinlich dazu veranlasst habe, die Gesamtqualität der Website neu zu bewerten, was dazu geführt habe, dass Rich Results zurückgehalten wurden.
Kurz gesagt: Selbst wenn Sie korrekt strukturierte Daten implementieren, kann Google die Anzeige von Rich Snippets verweigern, wenn die Website (als Ganzes) den Qualitätsanforderungen nicht entspricht. Wichtig ist, dass eine schlechte Website-Qualität der Grund dafür sein kann, dass keine Rich-Ergebnisse angezeigt werden .
Kernaktualisierungen und Sichtbarkeit:
Umfassende Aktualisierungen des Kernalgorithmus unterstreichen häufig die Auswirkungen der Site-weiten Qualität.
Das Core Update vom März 2024 (eines der größten Updates von Google in den letzten Jahren) zielte beispielsweise darauf ab, „die Suchergebnisse mit minderwertigen, oft KI-generierten Inhalten zu bereinigen“ .
Mithilfe des Sichtbarkeitsindex von Sistrix (einer SEO-Kennzahl, die die Google-Rankings einer Domain zu einem einzigen Wert zusammenfasst) stellten sie fest, dass die Sichtbarkeit von 55 der 70 führenden Nachrichtenverlage nach diesem Update abnahm. Viele dieser Rückgänge waren dramatische zweistellige Einbußen.
Selbst maßgebliche Websites waren nicht immun – BBC News beispielsweise verlor innerhalb von sechs Wochen 37 % seiner Sichtbarkeit bei der Google-Suche.
Google bestätigte, dass das Update dazu gedacht sei , „Spam und minderwertige Inhalte“ bei der Suche zu bekämpfen.
Das Muster hier lässt darauf schließen, dass ganze Domänen algorithmisch neu bewertet wurden; Websites mit einem höheren Anteil an dürftigen, doppelten oder nicht hilfreichen Inhalten wurden pauschal abgewertet.
Umgekehrt konnten die wenigen Publisher, die profitierten oder unbeschadet blieben, wahrscheinlich durchweg solide Inhalte und eine hohe Nutzerzufriedenheit vorweisen. Dies steht im Einklang mit Googles Hinweis, dass es für Core-Update-Drops keine spezifische Lösung gibt, außer der „Verbesserung der allgemeinen Website-Qualität“ – d. h. die Website als Ganzes muss wertvoller gestaltet werden.
SEO-Branchenstudien
Verschiedene Anbieter von SEO-Tools haben die Zusammenhänge zwischen Metriken auf Domänenebene und speziellen Suchfunktionen untersucht.
Ahrefs hat beispielsweise Millionen von Suchergebnissen untersucht, um herauszufinden, welche Faktoren mit Featured Snippets und anderen SERP-Funktionen korrelieren. Während sich diese Studien eher auf die Inhaltsrelevanz auf Seitenebene konzentrieren, stellen sie häufig fest, dass Websites mit Featured Snippets tendenziell autoritative Domains sind (hohes „Domain Rating“ und viele hochwertige Backlinks).
Dies impliziert einen zugrunde liegenden Vertrauensfaktor – Google hebt Inhalte (insbesondere in Snippets oder Antwortfeldern) von Websites, die es als allgemein vertrauenswürdig einstuft, eher hervor. Auch die Studien von Sistrix, die sich mit der Frage befassen, welche Websites Rich Snippets erhalten oder in der Kategorie „Nutzer fragen auch“ ganz oben stehen, heben bekanntermaßen qualitativ hochwertige Websites hervor.
Bei solchen Analysen ist es schwierig, die Qualität der Site von der Qualität der Seite zu trennen. Der Trend geht jedoch dahin, dass es starken Domänen (Markenautorität, Benutzervertrauen usw.) leichter fällt, eine verbesserte Sichtbarkeit zu erreichen und beizubehalten.
Auf der anderen Seite haben Websites mit Problemen bei der Suchqualität (z. B. frühere Abstrafungen oder minderwertige Inhalte) oft Schwierigkeiten, Rich Results zu erzielen , selbst wenn ihr Markup korrekt ist. Diese Muster stützen die Idee einer websiteweiten Qualitätsbewertung, die bestimmte Funktionen ausschließt.
Strukturierte Datenexperimente
Viele SEOs haben beobachtet, dass das bloße Hinzufügen von Schema-Markup keine überzeugenden Ergebnisse garantiert – der Ruf der Domain ist entscheidend.
In einem auf weniger bekannten oder qualitativ minderwertigen Websites durchgeführten Experiment konnten wir feststellen, dass die Implementierung strukturierter Daten für FAQs, Anleitungen usw. manchmal keine Rich Snippets ergab, bis die Website andere Signale verbesserte (wie bessere Inhalte, mehr Engagement oder einfach Zeit, um Vertrauen zu gewinnen).
Dies steht im Einklang mit den Dokumenten von Google, die bestätigen, dass strukturierte Daten Sie für Rich Results qualifizieren , diese jedoch nicht garantieren.
Die fehlende Zutat, die häufig dazu führt, dass die Sites nicht in den Rich Snippets erscheinen, ist der Ruf der Site .
Tatsächlich erkennen wir zunehmend dasselbe Muster bei den Ergebnissen, die in AI Overviews und Gemini Citations auftauchen.
Danny Sullivan, Suchbeauftragter von Google, hat angedeutet: Wenn keine Rich-Resultate angezeigt werden und Sie technisch alles richtig gemacht haben, sollten Sie die allgemeine Qualität der Website in Betracht ziehen – das könnte der Grund sein, warum Sie nicht weiterkommen.
Kurz gesagt: Öffentliche Daten und SEO-Fallstudien deuten stark auf einen Zusammenhang zwischen der Qualität der Website und der Sichtbarkeit in Suchergebnissen hin. Hochwertige Websites überstehen Kernaktualisierungen tendenziell besser und werden häufiger mit umfangreichen Ergebnissen und anderen Verbesserungen belohnt.
Websites mit geringer Qualität verzeichnen oft erhebliche Einbußen bei Rankings und Funktionen, wenn Google seine Algorithmen aktualisiert. Obwohl Qualität schwer direkt quantifizierbar ist, können Tools wie der Sichtbarkeitsindex von Sistrix oder der Sensor von SEMrush die Auswirkungen qualitätsorientierter Änderungen auf die gesamte Website deutlich veranschaulichen.
Google Insider zu Site-Qualität, Vertrauen und EEAT
Googles eigene Vertreter haben wiederholt die Bedeutung der Qualität der gesamten Site betont und gleichzeitig die Vorstellung eines einzelnen „Qualitätsfaktors“, den Webmaster überwachen können, widerlegt.
In verschiedenen Webmaster-Hangouts, Konferenzvorträgen und Podcasts haben Google-Mitarbeiter Einblicke gegeben, wie sie „Qualität“ bewerten und was dies für SEOs bedeutet. Hier sind einige wichtige Expertenmeinungen:
Qualität ist ein Signal auf Site-Ebene
John Mueller von Google hat klar zum Ausdruck gebracht, dass „Qualität ein Signal auf Site-Ebene ist“. In einer Sprechstunde im Juni 2021 erklärte er, dass Google zwar Seite für Seite indexiert und rankt, „es aber einige Signale gibt, die wir nicht zuverlässig pro Seite erfassen können und für die wir ein besseres Verständnis der gesamten Site benötigen. Und Qualität fällt irgendwie in diese Kategorie.“
Mit anderen Worten: Google bewertet bestimmte Aspekte Ihrer Inhalte und Ihres Rufs auf der gesamten Website. Sie können nicht einfach davon ausgehen, dass eine fantastische Seite die Qualität vieler mittelmäßiger Seiten übertrifft.
Mueller nannte auf Twitter auch ein Beispiel: „Haben Sie viele ältere Seiten mit geringer Qualität? Ja, das kann Ihrer Website in den Suchergebnissen schaden. Google betrachtet die Website als Ganzes. Wenn es also viele minderwertige Inhalte sieht, kann Google dies bei den Rankings berücksichtigen.“
Dies spiegelt wider, was SEOs aus den Panda-Updates gelernt haben: Eine Mischung aus qualitativ hochwertigen und minderwertigen Inhalten kann die gesamte Site nach unten ziehen . Daher ist es am besten, „alle Qualitätsprobleme zu lösen“, anstatt Bereiche mit dürftigen Inhalten herumliegen zu lassen.
EEAT ist real, aber kein einzelner Messwert: Erfahrung, Fachwissen, Autorität und Vertrauenswürdigkeit (EEAT) ist ein Rahmenwerk aus den Quality Rater Guidelines von Google, von dem viele glauben, dass es in Algorithmen integriert ist.
Gary Illyes (Google-Analyst) stellte auf der PubCon 2019 klar, dass es „keinen internen EAT-Score oder YMYL-Score“ gibt. Stattdessen „verfügt Google über eine Sammlung von Millionen winziger Algorithmen, die zusammenarbeiten, um einen Ranking-Score auszuspucken. Viele dieser kleinen Algorithmen suchen nach Signalen in Seiten oder Inhalten. Zusammengefasst lassen sie sich als EAT (jetzt EEAT) konzeptualisieren.“
Mit anderen Worten: Google weist Ihrer Site keinen numerischen „EEAT-Score“ zu, sondern bewertet viele Faktoren, die zusammengenommen der Beurteilung Ihrer Site durch Experten oder Qualitätsprüfer entsprechen.
Zu diesen Faktoren gehören wahrscheinlich Aspekte wie die Referenzen des Autors, die Reputation der Website (Links/Erwähnungen), die Genauigkeit der Inhalte, das Engagement der Nutzer usw. Es handelt sich um eine komplexe, ganzheitliche Bewertung. Das bedeutet, dass die Vertrauenswürdigkeit oder Qualität einer Website viele Facetten hat – es gibt nicht nur einen Regler, an dem man drehen muss, oder eine Kennzahl, die optimiert werden muss.
Illyes verglich es mit dem PageRank: Nicht direkt beobachtbar, aber seine Auswirkungen sind real. Obwohl man EAT nicht direkt messen kann, lässt es sich aus der Leistung einer Website ableiten, insbesondere bei YMYL-Themen (Your Money Your Life), bei denen Vertrauen entscheidend ist.
Kein „Tool“ kann die Qualität einer Website messen
In einem „Search Off The Record“-Podcast aus dem Jahr 2023 diskutierten Mueller, Illyes und Martin Splitt, wie oft die Qualität von Websites missverstanden wird. Sie wiesen darauf hin, dass es im Gegensatz zu technischen Problemen (bei denen Lighthouse- oder Search Console-Berichte vorliegen) kein definitives Tool oder keine Bewertung für die Website-Qualität gibt .
Ein Rückgang des Datenverkehrs kann zwar ein Hinweis darauf sein, dass etwas nicht stimmt, aber nicht, warum. Gary Illyes bemerkte zu Kennzahlen wie Seitenaufrufen oder Absprungrate: „Ich fand die Up-Down-Kennzahl völlig nutzlos, weil man immer noch herausfinden muss, was nicht stimmt … 99,7 % der Leute bewerten sie [Ihre Seite] negativ, und man fragt sich: ‚Warum?‘ “
Die Google-Mitarbeiter zeigten Verständnis dafür, dass es für Websitebesitzer schwierig sei, die Qualität ihrer eigenen Inhalte objektiv zu beurteilen. Jeder denke, seine Inhalte seien „perfekt und nützlich“, doch die Nutzer (und Google) könnten anderer Meinung sein.
Der praktische Tipp: Überprüfen Sie Ihre Website kritisch aus der Perspektive eines Nutzers oder holen Sie sich externe Meinungen ein. Wenn 9 der Top 10 Ergebnisse einer Suchanfrage von Websites mit einer gewissen Tiefe, Ausgereiftheit oder Autorität stammen und Ihre Seite ein Ausreißer ist, ist das ein Hinweis darauf, dass sie möglicherweise nicht den Qualitätsanforderungen entspricht.
Site-Qualität ist keine Raketenwissenschaft (es geht um Benutzer):
Die vielleicht beruhigendste Erkenntnis kam, als Martin Splitt und Gary Illyes darüber nachdachten, dass die Qualität einer Website einfacher ist, als die Leute denken . Illyes schlug vor, die Frage völlig neu zu formulieren:
Was wäre, wenn Qualität tatsächlich einfacher wäre, als … die meisten Leute denken? Was wäre, wenn es darum ginge, das zu schreiben, was den Leuten hilft, das zu erreichen, was sie erreichen wollen, wenn sie auf die Seite kommen? Und das ist alles.
Mit anderen Worten: Vergessen Sie den Versuch, einen schwer fassbaren „Qualitätsfaktor“ zu manipulieren – konzentrieren Sie sich einfach darauf, ob Ihre Inhalte die Nutzerabsicht effektiv erfüllen. Bieten Sie Ihren Nutzern, was sie suchen (und noch mehr)? Wenn ja, sind Sie auf dem richtigen Weg. Wenn nicht – wenn Ihre Seite nur einer von vielen 08/15-Einträgen ist oder die Nutzer zufrieden stellt –, dann hilft keine technische Optimierung.
Splitt wiederholte, dass man Seiten kritisch prüfen sollte: Wenn es 9.000 andere Seiten wie Ihre gibt, „ist das wirklich ein Mehrwert für das Internet? … Es ist eine gute Seite, aber wer braucht sie?“ .
John Mueller von Google stimmte in derselben Diskussion zu, dass die bloße Reproduktion bereits vorhandener Inhalte keinen Mehrwert bringt . Um in die Suchergebnisse zu gelangen, insbesondere in die von Wettbewerbern, müssen Sie etwas einzigartig Wertvolles bieten – „etwas, das über das hinausgeht, was bereits in den SERPs vorhanden ist“ .
Dies betrifft den Kern der Site-Qualität: Einzigartigkeit, Nützlichkeit und Benutzerzufriedenheit.
Allgemeine Benutzerfreundlichkeit und Vertrauenssignale sind wichtig:
Qualität beschränkt sich nicht nur auf den Text einer Seite. Sie umfasst auch Aspekte wie Benutzerfreundlichkeit, Design und Nutzererfahrung. Mueller hat festgestellt, dass Google bei Kernupdates „die Relevanz der Website insgesamt (einschließlich Inhaltsqualität, UX-Probleme, Anzeigen auf der Seite , Darstellung)“ prüft .
Übermäßige oder aufdringliche Werbung kann beispielsweise die wahrgenommene Qualität beeinträchtigen. Eine Website, die technisch langsam ist oder Benutzer frustriert, kann das Vertrauen untergraben.
Paul Haahr (ein Ranking-Ingenieur) von Google sagte einmal: „Siteweite Signale können einzelnen Seiten helfen , wenn zwei Seiten gleich relevant sind “ – das heißt, die Site mit dem besseren Ruf, der schnelleren Leistung oder der vertrauenswürdigeren Marke kann sich durchsetzen.
Core Web Vitals (Signale zur Seitenerfahrung) sind meist seitenspezifisch, können aber einen kumulativen Effekt haben, wenn viele Seiten einer Website langsam oder instabil sind. Kurz gesagt: Google bewertet einige Qualitätsaspekte auf Domainebene – einschließlich der Wahrnehmung Ihrer Marke und Ihrer Website als Ganzes durch die Nutzer (in der SEO-Welt manchmal als „Domain Authority“ bezeichnet, obwohl Google diesen Begriff nicht öffentlich verwendet).
Mythenzerstörung – Doppelter Inhalt und Site-Qualität:
Ein Mythos, den Google widerlegt hat, ist, dass doppelter Inhalt auf einer Website zu einem Abdruck von „minderer Qualität“ führt. Martin Splitt stellte kürzlich klar: „Duplikate wirken sich in den Augen von Google nicht negativ auf die Qualität einer Website aus.“
Dies allein führt nicht zu einer Strafe. Das eigentliche Problem mit doppelten oder nahezu doppelten Seiten ist ein operatives: Sie können das Crawling verlangsamen und die Leistungsverfolgung erschweren. Außerdem können doppelte Seiten in den Rankings miteinander konkurrieren, was in der SEO-Terminologie als Kannibalisierung bezeichnet wird.
Im Grunde ist es eine Verschwendung von Crawl-Budget und kann Ihre Analyse verfälschen, gilt aber nicht als Zeichen für die Unzuverlässigkeit Ihrer Website. Laut Splitt glauben manche Leute fälschlicherweise, dass Duplikate die wahrgenommene Qualität beeinflussen, „aber das ist nicht der Fall.“
Sie sollten aus Effizienzgründen dennoch doppelte oder dünne Variantenseiten bereinigen (durch kanonische Tags, Konsolidierung von Inhalten usw.), aber gehen Sie nicht davon aus, dass Google Ihre Site dafür direkt bestraft.
Diese Erkenntnis hilft erfahrenen SEOs, ihre Qualitätsverbesserungen auf das Wesentliche zu konzentrieren – die benutzerorientierte Qualität –, anstatt sich beispielsweise mit ein paar Seiten mit überlappendem Text zu beschäftigen.
Um die Sichtweise der Google-Insider zusammenzufassen: Die Qualität einer Website ist definitiv ein Faktor, es handelt sich dabei jedoch eher um ein umfassendes, vielschichtiges Konzept als um eine einzelne Bewertung.
Die Algorithmen von Google orientieren sich an der menschlichen Qualitätsbeurteilung (wie in den Quality Rater Guidelines beschrieben) und nutzen dafür zahlreiche Signale. Sie betrachten Ihre Website in ihrer Gesamtheit: Inhalt, Design, Ruf und Nutzerzufriedenheit.
Wenn ein großer Teil Ihrer Website wenig Wert hat, kann dies die Leistung der gesamten Website beeinträchtigen. Wenn Ihre Website insgesamt gut ist, werden ein paar schwache Seiten Sie zwar nicht in den Ruin treiben, aber sie helfen Ihnen auch nicht weiter.
Es gibt keine Kennzahl, die wir überwachen können, und keinen Trick, um sie über Nacht zu steigern. Das „Geheimnis“, wie Google-Mitarbeiter betonen, ist ganz einfach: Machen Sie Ihre Website zur besten Antwort für Nutzer – in Bezug auf Inhalt, Erlebnis und Vertrauen – und die Signale auf Site-Ebene werden sich von selbst einstellen.
Benutzerfreundlichkeit und Vertrauenswürdigkeit
Website-Qualität hängt nicht nur vom Textinhalt ab. Echte SEO-Verbesserungen wurden durch die Fokussierung auf die Benutzererfahrung (UX) und das wahrgenommene Vertrauen erzielt, die ebenfalls Qualitätssignale sind.
Ein bekanntes Beispiel ist der „Top Heavy“-Algorithmus (2012), der auf Websites mit zu vielen Anzeigen im oberen Seitenbereich abzielte. Später aktualisierte Google diesen Algorithmus und integrierte ihn in das Update für aufdringliche Interstitial-Elemente, das heute Teil des Google Page Experience-Algorithmus ist.
Betroffene Websites entfernten Anzeigen und Popups oder verbesserten ihr Verhältnis von Inhalten zu Anzeigen und verzeichneten einen Anstieg des Datenverkehrs. Dies war keine inhaltliche Änderung an sich, sondern eine Qualitätsverbesserung in Bezug auf die UX (Nutzer mögen keine übermäßige Werbung, daher wertet Google dies als Nachteil).
Viele Websites verzeichneten 2021 nach der Implementierung von Verbesserungen für das Page Experience Update (Core Web Vitals) leichte Verbesserungen. Obwohl dieses Update nur einen geringfügigen Rankingfaktor darstellte, berichteten Websites, die langsame Ladezeiten und Layoutänderungen behoben hatten, häufig von einer besseren Nutzerinteraktion und leicht besseren Rankings.
Es ist schwer zu sagen, ob die Rankings auf die direkte algorithmische Verbesserung oder auf indirekte Effekte zurückzuführen sind (zufriedene Benutzer, niedrigere Absprungraten = bessere „Qualitäts“-Signale), aber so oder so erwies sich die Verbesserung der UX als vorteilhaft, ohne den Inhalt überhaupt zu berühren.
Was das Vertrauen betrifft, sollten Sie HTTPS berücksichtigen. Als Google HTTPS zum Rankingfaktor machte, stiegen die Rankings von Websites, die auf HTTPS migrierten, gelegentlich. Noch wichtiger ist jedoch, dass Nutzer sicheren Websites vertrauen – was sich in einem besseren Engagement und möglicherweise besseren Bewertungen/Erwähnungen außerhalb der Website niederschlagen kann. All dies wirkt sich darauf aus, wie Google die allgemeine Vertrauenswürdigkeit Ihrer Website einschätzt.
Die wichtigsten Erkenntnisse
Das Konzept eines „Site Quality Scores“ ist faszinierend, aber auch etwas undurchsichtig. Wir können ihn zwar nicht direkt messen, aber seine Auswirkungen sind spürbar.
Hier sind die wichtigsten Erkenntnisse und Maßnahmen aus unserer Untersuchung:
Google bewertet die Qualität der gesamten Website
Wie durch Patente und Google-Mitarbeiter bestätigt, bewertet Google die Qualität auf Domänen- oder Subdomänenebene und verwendet sie in Ranking-Algorithmen.
Eine Überzahl minderwertiger Seiten kann Ihre gesamte Domain beeinträchtigen, während ein guter Ruf selbst die „mittelmäßigen“ Seiten aufwerten kann. Optimieren Sie Ihre gesamte Website, nicht nur einzelne Seiten isoliert.
Die Qualität einer Website hat nicht nur Auswirkungen auf das Ranking, sondern auch auf die Sichtbarkeitsfunktionen:
Eine schlechte Website-Qualität kann dazu führen, dass Sie für Rich Results und andere Verbesserungen nicht infrage kommen. Google könnte stillschweigend einen „Qualitätsfilter“ anwenden, der Ihre Sichtbarkeit einschränkt. Wenn Sie Schwierigkeiten haben, Rich Snippets, Top Stories usw. zu erhalten, überprüfen Sie die Inhaltstiefe, Genauigkeit und Nutzerzufriedenheit Ihrer Website. Umgekehrt dominieren qualitativ hochwertige Websites diese SERP-Funktionen.
Es gibt kein einheitliches Maß für Qualität:
In Google Analytics finden Sie keine Kennzahl zur „Website-Qualität“. Beobachten Sie stattdessen verschiedene Signale: organische Traffic-Trends (insbesondere nach Kern-Updates), Kennzahlen zur Nutzerinteraktion (Verweildauer auf der Website, Absprungrate, wiederkehrende Besucher), Bewertungen von Drittanbietern (Domain Authority, Trust Flow), Markensuchvolumen und sogar manuelle Website-Überprüfungen anhand der Quality Rater Guidelines.
Ein plötzlicher Rückgang der Rankings vieler Seiten deutet wahrscheinlich auf ein Problem auf Website-Ebene hin. Tools wie Ahrefs und SEMRush können Ihnen helfen, den Gesamtzustand Ihrer Domain im Laufe der Zeit zu verfolgen.
Inhalte regelmäßig bereinigen und verbessern:
Führen Sie regelmäßige Inhaltsprüfungen durch. Entfernen Sie Seiten, die dünn, veraltet oder leistungsschwach sind (insbesondere, wenn sie ohnehin keinen Suchverkehr generieren), oder fügen Sie sie zusammen. Dies kann die durchschnittliche Qualität Ihrer indexierten Inhalte verbessern.
Konzentrieren Sie sich auf die EEAT-Elemente (Erfahrung, Fachwissen, Autorität, Vertrauen). Obwohl es keinen direkten EEAT-Score gibt, werden Qualität und Qualität oft anhand dieser Kriterien beurteilt.
Stellen Sie sicher, dass Ihre Inhalte zu den Themen Geld, Gesundheit und Finanzen von glaubwürdigen Experten verfasst oder geprüft werden. Präsentieren Sie Ihre Autorenkompetenz. Erhalten Sie Erwähnungen oder Links von maßgeblichen Websites in Ihrer Nische. Schaffen Sie Vertrauen durch Transparenz – mit aussagekräftigen „Über uns“-Seiten, Kontaktinformationen, Datenschutzrichtlinien und gegebenenfalls Nutzerbewertungen. All diese Elemente auf Website-Ebene tragen zum Vertrauen von Google in Ihre Website bei.
Die Benutzererfahrung ist ein Qualitätsfaktor. Eine mobilfreundliche, schnelle und angenehm zu bedienende Website fördert längere Besuche und sendet positive Interaktionssignale an Google. Im Gegensatz dazu zeugt eine Spam-Benutzeroberfläche oder ein mit Werbung überladenes Layout von geringer Qualität.
Schauen Sie sich die UX Ihrer Website genau an: Macht Ihnen die Nutzung der Inhalte dort Spaß, oder fühlt sie sich wie eine Content-Mühle an? Verbessern Sie Navigation, Design und Geschwindigkeit parallel zur Inhaltsqualität.
Im Wesentlichen ist Website-Qualität ganzheitliche SEO auf höchstem Niveau. Sie ist die Summe Ihrer Inhalte, Ihrer Benutzererfahrung, Ihres Rufs und wie all dies im Vergleich zu Alternativen abschneidet.
SEOs sollten die Verbesserung der Website-Qualität als fortlaufendes Projekt betrachten, ähnlich wie die Produktqualität in einem Unternehmen – es gibt immer Raum für Verbesserungen und einen besseren Service für Ihre Nutzer. Je besser Ihnen das gelingt, desto mehr Vertrauen wird Google Ihrer Domain und allen darauf befindlichen Seiten entgegenbringen.
Benötigen Sie Unterstützung bei der Optimierung Ihrer Website, damit Google alle Voraussetzungen für ein Top-Ranking in den Suchergebnissen erfüllt? Kontaktieren Sie unser Team. Wir unterstützen Sie bei der Umsetzung der richtigen Strategien zur Steigerung der Qualität Ihrer Website.
Sie haben Fragen oder brauchen Hilfe?
Unser Team ist für Sie da!
Sie haben Fragen oder brauchen Hilfe?
Unser Team ist für Sie da!
- Rufen Sie uns an
- 0221 – 270 967 50