Suche
Close this search box.

Der SEO-Wochenrückblick KW 3

Auch diese Woche stand die SEO-Welt nicht still: Google erklärt offiziell, was es mit dem Crawl-Budget auf sich hat, AMP Lite wurde vorgestellt und Neil Patel gibt wertvolle Tipps zum Thema interne Verlinkung. In unserem Wochenrückblick erfahrt ihr die Details!

Google erklärt das Crawl-Budget

Auf dem Google Webmaster Blog hat Gary Illyes diese Woche einen Artikel veröffentlicht, in dem detailliert beschrieben wird, was genau das Crawl-Budget ist und woraus es sich zusammensetzt. Generell sagt Google, dass sich die meisten Webseitenbetreiber keine Gedanken um das Crawl-Budget machen müssen. Erst bei Websites mit mehreren Tausend URLs könnte das Limit ausgeschöpft werden.

In dem Beitrag werden zwei Begriffe definiert, aus denen das Crawl-Budget besteht: die Crawling-Frequenz und der Crawling-Bedarf.

Die maximale Abrufrate einer Website wird durch die Crawling-Frequenz begrenzt. Ob sich die Frequenz erhöht, wird durch zwei Faktoren bestimmt. Zum einen gilt, je schneller die Seite reagiert, desto höher ist die Crawling-Kapazität. Zum anderen kann man das Crawling durch den Googlebot in der Search Console begrenzen, eine Erhöhung ist jedoch nicht möglich.

Der Crawling-Bedarf wird durch die zwei Kriterien „Beliebtheit“ und „Veralteter Status“ beeinflusst. Je beliebter eine Seite, desto häufiger wird sie gecrawlt, um sie so aktuell wie möglich zu halten. Veraltete URLs möchte Google hingegen möglichst aus dem Index entfernen.

Des Weiteren erklärt Illyes, dass sich URLs mit geringem Mehrwert negativ aus das Crawling auswirken. Dazu nennt er folgende Merkmale, die man vermeiden sollte, um das Crawl-Budget zu schonen:

  • Facettierte Navigation und Sitzungskennungen
  • Duplizierte Inhalte auf der Website
  • Soft Error-Seiten
  • Gehackte Seiten
  • Unbegrenzte Bereiche und Proxys
  • Inhalte von geringer Qualität und Spam

Wer sich an diese Richtlinien hält, kann sein Crawl-Budget an vielen Stellen einsparen.

Google-News

  • Ranken in den Google Top News: Johannes Müller hat erklärt, dass die Auswahl der Schlagzeilen in den Google News teils durch die Inhalte und teils durch die Suchanfragen beeinflusst wird. Außerdem werden AMP-Ergebnisse häufig bevorzugt, wie Christian Kunz auf SEO Südwest bekannt gibt. Betreiber von News-Seiten haben also bessere Chancen, als Top News gelistet zu werden, wenn sie AMP benutzen.
  • Google stellt AMP Lite vor: Auf dem Google Developers Blog wurde das neue Format AMP Lite vorgestellt, durch das die Größe einer mobilen Webseite noch einmal um 45 % verringert werden kann. Das funktioniert, indem die Inhalte verkleinert werden, zum Beispiel durch die Komprimierung von Bildern.
  • Neue Funktionen für Google+: Ende 2015 wurde Google+ redesigned, allerdings bestand für die User die Möglichkeit, weiterhin das alte Design zu verwenden. Dies wird ab dem 24.01. nicht mehr möglich sein. Außerdem kann man zukünftig unqualifizierte Kommentare ausblenden, die Fotos erhalten in der Web-Version eine Zoom-Funktion und auch die Events-Funktion kommt zurück. Alle Infos hat der GoogleWatchBlog.
  • Google-Home-Anfragen werden als Direct Traffic gezählt: Suchanfragen über den Google-Home-Assistenten müssten bei Google Analytics eigentlich als organischer Traffic gezählt werden, schließlich kommen sie über die Google-Suche. Wie Search Engine Journal berichtet, ist dies aber nicht der Fall, stattdessen wird der Traffic als Direct Traffic gezählt. Webseitenbetreiber sollten dies im Hinterkopf behalten, wenn sie bemerken, dass ihr direkter Traffic steigt.
© Max Prin

Vermischtes

  • Leitfaden für die interne Verlinkung: Auf seinem Blog stellt Neil Patel ausführlich dar, warum die interne Verlinkung sinnvoll ist und was es dabei zu beachten gilt. Unter anderem gibt er den Tipp, beschreibende Ankertexte zu verwenden und ältere Artikel mit neuen internen Links zu aktualisieren. Weitere wichtige Punkte: auf Natürlichkeit achten und auf jeden Fall Dofollow Links setzen.
  • Black Hat vs. White Hat SEO: Auf SearchEngine Land beschreibt Andrea Lehr ausführlich den Unterschied zwischen Black Hat und White Hat SEO. Zu den verbotenen Techniken zählt zum Beispiel das Einfügen von Keywords, die absolut nichts mit dem Produkt oder Content zu tun haben. Als Alternative rät sie zu qualitativ hochwertigem Content, einer gründlichen Keyword-Recherche und einer gepflegten Meta Description. Diese Strategien erzielen zwar keinen schnellen Erfolg, aber man bewegt sich auf der sicheren Seite und muss keine Abstrafung von Google befürchten.
  • Analyse von Featured Snippets: A.J. Ghergich von MOZ hat 1,4 Millionen Featured Snippets analysiert, um herauszufinden, wobei es darauf ankommt. Das Ergebnis: Die optimale Länge für Snippet-Texte liegt zwischen 40 bis 50 Wörtern, bei Listen sollte man darauf achten, mindestens neun Punkte aufzuzählen und Tabellen sollten nach Möglichkeit mindestens zehn Zeilen enthalten.
  • SMX München: Vom 14. bis 15. März findet die SMX in München statt. Euch erwartet ein spannendes Programm und bis heute könnt ihr euch noch die Early Bird Tickets sichern! Mit unserem Rabattcode STSMX erhaltet ihr zusätzlich noch einmal 15 % Rabatt auf eure Tickets.

Ein schönes Wochenende wünschen euch

Kira und die SEO-Trainees

Lust auf einen Gastartikel?
Möchtest du einen Gastartikel auf SEO-Trainee.de veröffentlichen? Dann schau dir unsere Richtlinien für Gastbeiträge an und melde dich ganz einfach bei uns! Wir freuen uns von dir zu hören

Autor:In

4 Antworten

  1. Sehr interessanter Artikel. Das ist wohl doch ein Grund dafür, dass ich endlich meine Reaktionszeiten optimieren sollte. Habe das immer als nachrangig gesehen, aber das sollte ich wohl überdenken.

    Weiter so!

  2. Hallo Kira! Danke für das Update hier und das du mal wieder auf den Punkt gebracht hast worum es geht. Deine Beiträge sind echt immer wirklich gut nachvollziehbar und hilfreich!

  3. Hallo Kira,

    vielen Dank für die gute Zusammenfassung. Ich fande den Artikel zum Thema Crawlingbudget interessant. Ich bin der Annahme, dass auch der technische Aufbau einer Seite Einfluss auf das Crawling budget hat. Denn angenommen eine Seite (z.B. Online-Shop) hat eine Filterfunktion, mit der man nach Eigenschaften z.B. Farbe, Größe etc. Filtern kann. Wird dieser Filter so gebaut, dass für jedes Merkmal eine eigene URL existiert, dann ist man schnell bei tausenden von Urls die keinen wirklichen Unterschied aufweisen. Kann mir vorstellen, dass man so schnell das sogenannte Crawl-Budget aufbrauchen kann. Wie seht Ihr das?

    Viele Grüße

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert