crawling by Google-Bot
Website Crawling für Google-Bot optimieren
Crawlbarkeit ist der zweite Pfeiler unserer technischen SEO-Optimierung. Bei der Optimierung auf Crawlbarkeit geht es um die Beantwortung der Frage:
Wie einfach ist es für Google, Ihre Website zu crawlen?
Für das erfassen von Inhalten gönnt der Google-Bot jeder Webseite nur ein winziges Zeitfenster
(Crawl-Budget).
Gelingt es in dieser kurzen Zeit nicht Anliegen und Content einer Webpage zu erkennen, ist dies Seite für ein gutes Ranking verloren.
Können Webseiten schnell gecrawlt werden, so bedeutet das für Google, dass eine Website kein Schnellschuss aus einer x-beliebigen Theme-Vorlage ist, sondern ein technisch hochwertiges
Produkt und ein Onlinemarketing-Instrument, in das viel Mühe und Know-How investiert wurde. Dies erhöht die Wahrscheinlichkeit auf ein besseres ranking in den SERPs..
Wir gestalten die Technik hinter den Crawling-Prozessen auf jeder Website effizienter, damit Ihre Seiten einfacher indexiert werden.
1. Wir kreieren userfreundliche, sprechende URLs
SEO-freundliche URLs sind URLs, die sowohl für Besucher als auch für Suchmaschinen sinnvoll sind. Für die Information Architecture einer Website
ist es wichtig, eine klare URL-Struktur zu erstellen, eine die unter anderem die Zugänglichkeit sämtlicher Inhalte für Besucher und Suchmaschinen definiert.
Die dahinterliegende Information Architecture definiert, in welcher Beziehung die Seiten zueinander stehen und welche URLs und Verzeichnisse existieren. Dies ist wichtig,
um sicherzustellen, dass Ihre Webseiten für Benutzer leicht zugänglich und für Suchmaschinen einfach zu crawlen sind.
Unser Hauptaugenmerk liegt daher auf dem Erstellen von kurzen, beschreibenden, lesbaren und konsistenten URLs (z.B.: www.meine-domain.com/service/monitore.php).
Lange und komplizierte URLs (z.B.: www.meine-domain.de/wpcontent/uploads/2024/1256974562.php) erschweren es einer Suchmaschine, die Bedeutung
einer Seite und deren Absicht zu verstehen.
Durch die Optimierung Ihrer URLs erleichtert es unser SEO-Team Suchmaschinen und Benutzern, Ihre Inhalte zu verstehen.
Es gibt einer Reihe Faktoren, die zu einer Verschwendung des Crawling-Budgets führen und es handelt sich dabei grundsätzlich um Faktoren, die jede SEO-Strategie wieder über den
Haufen werfen. Die häufigsten Fehler die uns in unserer SEO-Arbeit immer wieder begegnen sind:
- Duplicate Content
- Minderwertige Inhalte
- Schlechte interne Link-Struktur
- Eine hohe Zahl nicht-indexierbarer Webseiten
- Langsam ladende Webseiten
- Broken Links / Redirecting Links
- Fehlerhafte URLs in der XML-sitemap
- Existierend Links mit Parametern (index.php?lang=de)
Jedes einzelne dieser Probleme verschwendet Ihr Crawling-Budget und macht das Crawling und die Indexierung Ihrer Website (und somit auch die SEO-Bemühungen) ineffizient.
2. Wir optimieren Ihr Crawl-Budget
Unter Crawling-Budget versteht man die Anzahl der Seiten, die Suchmaschinen innerhalb eines bestimmten Zeitraums auf einer Website crawlen. Google und andere Suchmaschinen berechnen das Crawling-Budget basierend auf dem Crawling-Limit (wie oft beim Crawling keine Probleme auftreten). Ist das Crawling-Budget nicht optimiert, so verhindert es ein effizientes Erfassen, neue oder aktualisierte Webseiten werden nicht indexiert und der Website-Betreiber verschenkt Potential auf eine gute Platzierung in den Suchergebnissen, was einen Dominoeffekt auf die gesamte SEO-Leistung auswirken kann.
3. Wir verhindern Crawling-Fallen
Crawler-Fallen (auch: Spider-Traps) beziehen sich auf ein strukturelles Problem innerhalb einer Website, das dazu führt, dass Crawler praktisch unendlich viele irrelevante URLs finden. Aus diesem Grund können Crawler-Fallen Ihre SEO-Leistung ernsthaft beeinträchtigen, indem sie wertvolles Crawl-Budget verschwenden und doppelte Inhalte generieren. Um die Entstehung von Crawler-Fallen zu vermeiden, bedarf es einer umfassenden, soliden Basis an technischem SEO Know-How. Die wichtigsten Methoden zur Vermeidung von Crawler-Fallen, sind in unserer SEO-Arbeit:
- Website-Monitoring und plötzliche Zunahme an Seitenanzahl und Redirects
- Sicherstellen, dass alte Webseitten, die nicht mehr existieren den HTTP Status-Code 404 (not found) zurückliefern
- Crawlingverbot von URLs, die von Google nicht durchsucht werden sollen
- Hinzufügen des "nofollow"-Attributes zu Webseiten, die von Google nicht durchsucht werden sollen
- Vermeidung von dynamischen Einfügen von Inhalten während des Ladens
Fon: | 0511 - 05131 - |
725 38 691 489 28 0 |
4. Vermeiden von doppelten Inhalten (duplicate content)
Duplicate Content bedeutet schlechte Suchmaschinenoptimierung (SEO), und das nicht nur wegen der Rolle, die er bei der Erstellung von Crawler-Fallen spielen kann.
Einfach ausgedrückt: Duplicate Content ist für Google verwirrend.
Grundsätzlich indexiert Google für jeden eindeutigen Inhaltssatz nur eine URL. Es ist jedoch schwierig zu bestimmen, welche Version indexiert werden soll, was manchmal dazu führt,
dass beide in den SERPS erscheinen. Aus SEO-Sicht führt doppelter Inhalt zu einer Kannibalisierung von Schlüsselwörtern, bei der beide Seiten miteinander um Klicks und
Traffic konkurrieren, was die Leistung beider Seiten verringert.
5. Ladezeiten verringern, SiteSpeed erhöhen
Die Geschwindigkeit einer Website (SiteSpeed)ist ein wichtiger Faktor bei der OnPage Optimierung und der Verbesserung des Rankings innerhalb
der SERPs einer Website. Zum Einen mögen Besucher keine langsam ladenden Websites. Sie wollen einen schnellen Bildaufbau im Browser und werden die Seite, bei einer zu langen
Ladezeit, wieder verlassen,
Eine im
Forbes-Magazin veröffentlichte Studie von Amazon
besagt, dass jede 100ms längere Ladezeit 1% des möglichen Umsatzes kostet. Darüber hinaus verstehen Suchmaschinen, dass schnelle Websites für eine verbesserte
Benutzererfahrung ("user-experience", "UX") sorgen und zeigen diese in den SERPs im Allgemeinen weiter oben an.
Unsere SEO Experten in Hannover verringern die Ladezeiten einer jeden Kundenwebsite mit Hilfe von Methoden, wie wir sie schon an anderen Stellen erwähnt haben, wie z.B.:
Entfernung von Dublicate-Content, Anzahl von Redirects klein halten, Website-Caching, Verwenden von modernen, Ladezeit sparenden Bildformaten (z.B.: .webp).
Testen Sie Ihre Homepage mit
Google PageSpeed Insights für einen ersten Eindruck und unsere hannoversche SEO-Crew unterbreitet Ihnen Vorschläge zur
Verbesserung Ihres Rankings durch unsere Suchmaschinenoptimierung.
Gellertstrasse 7
30175 Hannover
Fon: eMail: |
0511 05131 info |
- 725 38 691 - 489 28 0 @binary-garden.com |
Mo - Fr: Sa: |
08:00 – 17:00 Uhr 08:00 – 14:00 Uhr |