Inhalt des Beitrags
Crawling, Indizierung, Ranking und Rendering
Nach diesem Tutorial sollten Sie über fundierte Kenntnisse darüber verfügen, was Crawling, Indexing, Ranking und Rendering bedeutet. Außerdem erfahren Sie, wie sich Crawling, Rendering und Indexing auf Google und Bing SEO auswirken.
Wenn Sie noch nicht in die Welt des Bloggens eingestiegen sind, klicken Sie hier, um Ihren persönlichen Blog zu starten.
Zurück zum Thema „Der Unterschied zwischen Crawling, Indizierung, Ranking und Rendering“. Worum geht es in diesen Begriffen eigentlich und hilft mir das Wissen weiter? Sie werden sie gleich hier sehen. Beachten Sie jedoch, dass es sich bei diesem Thema eher um technische Konzepte handelt und Sie daher möglicherweise mit seltsamen Begriffen konfrontiert werden. Ich werde jedoch versuchen, die Dinge so einfach wie möglich zu machen, damit das Leben für Sie einfach ist.
Crawling, Ranking, Indizierung und Rendering
Crawling
Wenn wir über Crawling sprechen, fallen mir sofort Spinnen und andere kriechende Kreaturen ein, richtig? Du liegst überhaupt nicht falsch. Dieses Thema führt Sie jedoch zu einer anderen Form des Crawling-Mechanismus.
Nun, was ist Crawlen? Crawling ist der Prozess, bei dem Suchmaschinen aktualisierte Inhalte im Web entdecken, wie z. B. neue Blogs oder Seiten, Änderungen an bestehenden Websites oder Blog-Beiträgen und tote Links.
Lassen Sie mich das vereinfachen ; Crawling ist der Prozess, bei dem Suchmaschinen wie Google, Bing und Yahoo ihre Crawler oder Bots verwenden, um durch das Web zu gehen, um neue Posts, neue Blogs, neue Links und aktualisierte Posts zu finden und auch die Cache-Version zu aktualisieren, die sie haben.
Nachdem Sie Ihre Seiten gecrawlt haben, entscheidet der Google-Crawler nun, ob er sie indexiert oder nicht. Aber wenn Sie ROBOTS.TXT verwenden, um Bots daran zu hindern, Ihre Webseite zu crawlen, können sie Ihre Beiträge nicht durchsuchen, indizieren oder einordnen. Auf Ihren Blog-Seiten wird ein Programm verwendet, das als „Crawler“, „˜bot“ oder „˜Spider“ bezeichnet werden kann.
INDIZIERUNG
Was ist Indizierung? Sobald eine Suchmaschine jede der von ihr gecrawlten Seiten verarbeitet hat, erstellt sie einen umfangreichen Index aller Wörter, die sie sieht, und ihrer Position auf jeder Seite. Es ist im Wesentlichen eine Datenbank mit Milliarden von Webseiten.
Dieser extrahierte Inhalt wird dann gespeichert, wobei die Informationen dann vom Algorithmus der Suchmaschine organisiert und interpretiert werden, um ihre Bedeutung im Vergleich zu ähnlichen Seiten zu messen.
Server auf der ganzen Welt ermöglichen den Benutzern den sofortigen Zugriff auf diese Seiten. Das Speichern und Sortieren dieser Informationen erfordert viel Platz, und sowohl Microsoft als auch Google haben jeweils über eine Million Server.
Lesen Sie unbedingt auch: Probleme bei Indexierung – Seiten nicht im Google Index
Ranking
Was ist Ranking? Jeden Tag sagen Sie Dinge wie: „Ich möchte in den Suchergebnissen von Google und Bing einen höheren Rang erreichen.“ Wissen Sie wirklich, worum es beim Ranking geht und wie Google Flashlearner einordnet? Mal schauen…
Sobald ein Schlüsselwort in ein Suchfeld eingegeben wird, suchen Suchmaschinen nach Seiten in ihrem Index, die am ehesten übereinstimmen; diesen Seiten wird auf der Grundlage eines Algorithmus, der aus Hunderten von verschiedenen Ranking-Signalen besteht, eine Punktzahl zugewiesen.
Diese Seiten (oder Bilder und Videos) werden dem Benutzer dann in der Reihenfolge ihrer Punktzahl angezeigt.
Damit Ihre Website auf den Suchergebnisseiten einen guten Rang einnimmt, ist es wichtig sicherzustellen, dass Suchmaschinen Ihre Website korrekt crawlen und indizieren können – andernfalls können sie den Inhalt Ihrer Website nicht angemessen in den Suchergebnissen platzieren.
Was ist GoogleBot, Crawling und Indizierung?
Kissmetrics konnte die Begriffe in Bezug auf Googlebot-Crawling und -Indexierung vereinfachen. Wenn der Googlebot diese Flashlearners-Seite nicht gecrawlt und indexiert hat, konnten Sie sie nicht als Ergebnis in der Google-Suche sehen. Durch Crawling und Indexierung wird Ihr Blog in Suchmaschinen sichtbar.
- Der Googlebot ist einfach die Suchbot-Software, die Google aussendet, um Informationen über Dokumente im Web zu sammeln, um sie dem durchsuchbaren Index von Google hinzuzufügen.
- Crawling ist der Prozess, bei dem der Googlebot von Website zu Website wandert und neue und aktualisierte Informationen findet, um sie Google zu melden. Der Googlebot findet anhand von Links, was gecrawlt werden soll.
- Indexierung ist die Verarbeitung der Informationen, die der Googlebot aus seinen Crawling-Aktivitäten sammelt. Sobald die Dokumente verarbeitet sind, werden sie dem durchsuchbaren Index von Google hinzugefügt, wenn sie sich als hochwertiger Inhalt herausstellen. Während der Indexierung verarbeitet der Googlebot die Wörter auf einer Seite und wo sich diese Wörter befinden. Bei der Indexierung werden auch Informationen wie Titel-Tags und ALT-Attribute analysiert.
Rendern
Was ist Rendern? Beim Rendern wird angezeigt, was Sie auf Ihrem Bildschirm sehen, während Sie im Internet surfen. Es kommuniziert mit der Netzwerkschicht des Browsers, um HTML-Code und andere Elemente abzurufen, die von einem entfernten Server übergeben werden. Die Mehrheit der gecrawlten Webseiten wird jetzt von Google gerendert. Diese Seite, die Sie gerade lesen, ist eine gerenderte Webseite.
Meistens, eigentlich immer, blockieren Google-Bots Adsense-Codes und können daher nicht gerendert werden. Dies kann angezeigt werden, wenn Sie Ihre Webseite mit der Google Search Console oder dem Webmaster-Tool abrufen und rendern.
Wie eine Webseite gerendert wird
Mit jedem Tag suchen Sie Dinge auf Google und Bing, Sie erhalten Ergebnisse und klicken dann, um die Ergebnisse anzuzeigen. Dann öffnet sich flashlearners und Sie lesen, was Sie gesucht haben. Schön, oder?, aber haben Sie sich jemals gefragt, wie eine Webseite geöffnet (gerendert) wird? Das, was Sie in den folgenden Schritten lernen werden, adaptiert von Friendlybit:
- Sie müssen in Flashlearners nach etwas suchen und geben schnell eine URL in die Adressleiste Ihres Opera Mini, Internet Explorer oder Google Chrome ein.
- Der Browser analysiert die von Ihnen eingegebene Adresse, um das Protokoll, den Host, den Port und den Pfad zu finden.
- Es bildet eine HTTP-Anfrage und um den Host zu erreichen, muss es zuerst den für Menschen lesbaren Host in eine IP-Nummer übersetzen , und zwar durch eine DNS-Suche auf dem Host
- Dann muss ein Socket vom Computer des Benutzers zu dieser IP-Nummer auf dem angegebenen Port (meistens Port 80) geöffnet werden.
- Wenn eine Verbindung geöffnet ist, wird die HTTP-Anforderung an den Host gesendet
- Der Host leitet die Anfrage an die Serversoftware (meistens Apache) weiter, die so konfiguriert ist, dass sie auf dem angegebenen Port lauscht
- Der Server prüft die Anfrage (meistens nur den Pfad) und startet das Server-Plugin, das zur Bearbeitung der Anfrage benötigt wird (entsprechend der von Ihnen verwendeten Serversprache, PHP, Java, .NET, Python?).
- Das Plugin erhält Zugriff auf die vollständige Anfrage und beginnt mit der Vorbereitung einer HTTP-Antwort.
- Um die Antwort zu konstruieren , wird (höchstwahrscheinlich) auf eine Datenbank zugegriffen . Basierend auf Parametern im Pfad (oder Daten) der Anfrage wird eine Datenbanksuche durchgeführt
- Daten aus der Datenbank werden zusammen mit anderen Informationen, die das Plugin hinzufügen möchte, zu einer langen Textfolge (wahrscheinlich HTML) kombiniert.
- Das Plugin kombiniert diese Daten mit einigen Metadaten (in Form von HTTP-Headern) und sendet die HTTP-Antwort zurück an den Browser.
- Der Browser empfängt die Antwort und parst den HTML-Code (der mit 95-prozentiger Wahrscheinlichkeit defekt ist) in der Antwort
- Aus dem defekten HTML wird ein DOM-Baum erstellt
- Für jede neue Ressource, die in der HTML-Quelle gefunden wird (normalerweise Bilder, Stylesheets und JavaScript-Dateien), werden neue Anforderungen an den Server gestellt . Gehen Sie zurück zu Schritt 3 und wiederholen Sie dies für jede Ressource.
- Stylesheets werden geparst und die Rendering-Informationen in jedem werden an den passenden Knoten im DOM-Baum angehängt
- Javascript wird geparst und ausgeführt , und DOM-Knoten werden verschoben und Stilinformationen werden entsprechend aktualisiert
- Der Browser rendert die Seite auf dem Bildschirm gemäß dem DOM-Baum und den Stilinformationen für jeden Knoten
- Sie sehen die Seite auf dem Bildschirm
- Sie ärgern sich, dass der gesamte Prozess zu langsam war.
7 Schlüsselkomponenten Ihres Webbrowsers
Path interactive hat folgendes zu den 7 Komponenten Ihres Webbrowsers zu sagen. Sie werden es wirklich genießen.
1. Layout Engine: Hier klicken oder tippen Sie, um ein Ergebnis zu erwarten. Sie geben beispielsweise in das Suchfeld oder das Leerzeichen Ihre Webadresse ein und diese wird an die Rendering-Engine weitergeleitet. Das macht die Layout-Engine.
2. Rendering Engine: Diese wandelt einen bloßen Code in schöne Bilder und visuelle Darstellungen um.
3. Benutzeroberfläche: Dies ist, was Sie sehen, wenn Sie einen Browser verwenden. Es ist die Schnittstelle, über die Sie mit Ihrem Browser kommunizieren. In der Benutzeroberfläche suchen Sie nach Dingen oder überprüfen Ihre Lesezeichen und den Browserverlauf.
4. JavaScript-Engine: Diese Engine nimmt JavaScript-Code, analysiert ihn, führt ihn aus und gibt die Ergebnisse zurück.
5. Netzwerkschicht: Dies ist eine Funktion des Browsers, die hinter den Kulissen stattfindet und Netzwerkfunktionen wie Verschlüsselung, HTTP- und FTP-Anforderungen sowie alle Netzwerkeinstellungen wie Zeitüberschreitungen und die Behandlung von HTTP-Statuscodes verarbeitet
6. Speicherung: Browser müssen einige Daten speichern, die zwischengespeicherte Dateien und Cookies enthalten können, und kürzlich wurden Browser aktualisiert, um mit JavaScript erstellte Daten und Objekte speichern zu können
7. Betriebssystemschnittstelle: Der Browser muss mit dem Betriebssystem interagieren, um verschiedene Elemente der Seite wie Dropdown-Felder und das Chrom eines Fensters (Schaltflächen zum Schließen, Maximieren und Minimieren) darzustellen.
Was bedeutet das für SEO?
Die Tatsache, dass Google die vollständig gerenderte Version einer Webseite betrachtet, bedeutet, dass Sie nicht mehr nur auf den Quellcode einer Website schauen können, um zu verstehen, wie sie von einem Suchmaschinen-Spider wahrgenommen wird.
Sie sollten davon ausgehen, dass Suchmaschinen-Spider dieselbe Seite sehen, die Sie in Ihrem Browser sehen, wie sie beim Laden der Seite erscheint. Hier sind einige Beispiele dafür, wann dies wichtig ist:
Zusammenfassung: Google crawlt Ihre Website und indiziert dann, was es als zwischengespeicherte Version der Seite sieht.
Die Seite kann sich vor dem Crawlen im Design ändern und dann die neue Seite neu indizieren, daher wird der Begriff Cache fast als Einschränkung verwendet, um zu sagen, dass sich die Seite seit dem Crawlen möglicherweise geändert HAT.
Wenn Ihre Webseiten nicht gecrawlt werden, können sie nicht indexiert werden. Stellen Sie sicher, dass Ihre Website von Bots gecrawlt werden kann. Richten Sie ein Google Webmaster Tools-Konto ein und reichen Sie dann eine XML-Sitemap ein, damit Google sie crawlen und indexieren kann.
Sie haben Fragen oder brauchen Hilfe?
Unser Team ist für Sie da!
Sie haben Fragen oder brauchen Hilfe?
Unser Team ist für Sie da!
- Rufen Sie uns an
- 0221 – 270 967 50