Suche
Close this search box.

Der SEO-Blog-Wochenrückblick KW 44

Es ist Zeit für den Wochenrückblick – diese Woche geht es um das Authorship Markup, wie man die Crawlability mithilfe der Google Webmaster Tools analysiert und wie man viele URLs auf einen Schlag mit dem Screaming Frog auf strukturierte Daten testen kann. Viel Spaß beim Lesen!

Authorship 2.0

Authorship Markup im Snippet von SEO-Trainee.deAJ Kohn berichtet diese Woche, dass mehrere Personen, die an dem Projekt „Authorship“ beteiligt waren, mittlerweile ihre Funktionen bei Google gewechselt haben. Als Erklärung vorweg: Wenn ich von Authorship spreche, meine ich die Zuordnung der Urheberschaft und wenn ich von Author Rank rede, meine ich die Attribution von Trust. Auch wenn AJ Kohn nicht dahingehend unterschieden hat, denke ich, dass so deutlicher wird, was gemeint ist.

AJ Kohn wertet dies und weitere Geschehnisse als Indikator, dass das Authorship-Projekt vorerst auf Eis gelegt ist. Hintergrund: Insgesamt wird das Authorship Markup noch wenig verwendet. Insbesondere benutzen teilweise auch renommierte Autoren das Markup nicht. Die Leute, die das Markup verwenden, sind nicht zwangsläufig Personen mit hohem Trust, sondern eben häufig SEOs, die sich dadurch Ranking-Verbesserungen erhoffen. Würde Google das Markup mit der ursprünglich vorgesehenen Funktion (in enger Verknüpfung mit dem Author Rank als Trust-Metrik) verwenden, würde sich die Suchmaschine ins eigene Fleisch schneiden. Passend dazu kündigte Matt Cutts eine Reduktion von 15 % der Rich Snippets in den SERPs an. AJ Kohn glaubt trotzdem nicht, dass dies das Ende des Authorships und Author Ranks bedeutet. Vielmehr glaubt er, dass der Trust, der einem Autor zugeschrieben wird, anders festgestellt werden soll. Er vermutet, dass Entities eine große Rolle in dem Zusammenhang spielen werden. Für die Einschätzung über den Trust eines Autors können beispielsweise Wikipedia- und Google+-Daten ausgewertet werden. Fazit: Authorship und Author Rank werden sich von der Implementierung des Autorship Markups als Voraussetzung für die Trust-Attribution loslösen.

Wie man viele URLs gleichzeitig auf Markup überprüft

Mit dem Test-Tool für strukturierte Daten gibt Google den Webmastern die Möglichkeit, ihre Seiten auf die Umsetzung von strukturierten Daten zu überprüfen. Hat man aber eine große Menge an Seiten, die man dahingehend prüfen will, muss eine bessere Lösung her. Moz.com verrät sie uns: Mit dem Screaming Frog geht es schneller. Im ersten Schritt muss dafür eine Liste aller zu prüfenden URLs erstellt werden. Wenn die Seite https://www.seo-trainee.de/personalisierte-suche/ im Google-Tool geprüft wird, entsteht dabei die URL http://www.google.com/webmasters/tools/richsnippets?q=http%3A%2F%2Fwww.seo-trainee.de%2Fpersonalisierte-suche%2F. Dieses Muster nutzt man, um alle URLs so zu verändern (Excel-Formel nutzen!), dass sie nur noch in einer Liste im Screaming Frog hochgeladen werden müssen. Im Screaming Frog legt man anschließend in den Filterfunkltionen fest, wonach gefiltert werden soll. Beispielsweise testet man mit dem Filter „Die Zuordnung der Urheberschaft funktioniert auf dieser Webseite“ auf ein funktionierendes Authorship Markup. Coole Sache! Die Einzelheiten gibt es in dem Artikel auf moz.com nachzulesen.

Crawling-Analyse mit den Google Webmaster Tools

Wer seine Website für den Crawler optimieren will, sollte sich unbedingt unseren Artikel zur Crawl-Optimization auf SEO-Trainee.de durchlesen! Hilfreich für die Crawl-Optimization ist auf jeden Fall eine Crawling-Analyse, die man mithilfe der Webmaster Tools durchführen kann. Diese sind erster Anlaufpunkt, wenn man keinen Zugriff auf die Serverlogfiles hat. So kann man unter dem Punkt Crawling in den Crawling-Statistiken sehen, wieviele URLs am Tag gecrawlt und wieviele Daten übertragen wurden. Unter dem Punkt Google-Index unter Indexierungsstatus interessiert vor allem der Vergleich der beiden Kurven „jemals gecrawlt“ und „insgesamt indexiert“. Diese sollten annähernd gleich sein. Den gesamten Artikel zum Thema gibt es auf trustagents.de.

Online Marketing News Worldwide

Wikipedia-SMS-Service in Afrika

Weite Teile Afrikas haben keinen Zugang zum Internet. Genau für diese Zielgruppe hat Wikipedia nun den kostenlosen Service „Wikipedia Zero“ ins Leben gerufen. Auch ohne Internetzugang können Handy-Besitzer die Tastenkombination *515# eintippen und nach Artikeln suchen. Im Folgenden bekommen sie eine Kurzzusammenfassung per SMS übermittelt. Das ist sicherlich eine tolle Idee, aber Experten sehen auch Probleme: Es gebe nicht nur Schwierigkeiten mit dem Internetzugang, sondern weite Teile der Bevölkerung haben auch keinen (guten) Handy-Empfang. Zudem würden Wikipedia-Themen nicht unbedingt den Nerv der ländlichen Bevölkerung (Hauptzielgruppe der Initiative) treffen. Viel wichtiger seien für sie aktuelle Marktpreise von Mais und anderen Produkten.

Baidu auf dem Vormarsch

Auch Baidu möchte die Entwicklungsländer erobern, allerdings eher aus betriebswirtschaftlichen als aus altruistischen Gründen. Der chinesische Suchgigant konnte im dritten Quartal dieses Jahres seinen Erlös um 42 % steigern und plant jetzt nach Thailand, Ägypten und Brasilien zu expandieren. Eine Ausweitung der Aktivitäten in die USA oder andere westliche Länder ist zunächst nicht geplant.

Optimierungstipps für Baidu

Für Inhaber einer chinesischen Webseite ist der Artikel von Clayton Wood absolute Lesepflicht. Der Autor zeigt hierbei die wichtigsten positiven und negativen Ranking-Faktoren für Baidu auf. Sehr wichtig sei es zum Beispiel, das Keyword im Titel und in internen Links unterzubringen, eine Website mit hohem Domain-Alter zu haben, in Baidu-Netzwerken aktiv zu sein und über die länderspezifische Domain-Endung .com.cn zu verfügen. Als negative Ranking-Faktoren werden häufiger Server-Ausfall und Links von Spam-Seiten genannt.

Vermischtes

  • Neue Funktion in den Google Webmaster Tools: Neuerdings gibt es in den Tools den Bereich „Sicherheitsprobleme“, über den der Webmaster informiert wird, wenn Google auf Seiten stößt, die von Spam oder Malware betroffen sind. Google spezifiziert, welche URLs von welchem Sicherheitsproblem betroffen sind, so berichtet searchenginewatch.com.
  • Der NSA-Skandal geht weiter: Laut den neuesten Enthüllungen der Washington Post soll die NSA die Leitungen der Rechenzentren der Suchmaschinen angezapft haben. Damit hätte die NSA nicht nur, wie bekannt, den beschränkten Zugriff auf die von Google und Co. zur Verfügung gestellten Daten, sondern kompletten Zugriff auf alle Datensätze. In den Datensätzen befinden sich unter anderem Meta-Daten, Text-, Audio- und Videodateien. Ganz schön unheimlich, finde ich!
  • CEMPER-Tools: Wer gerne das Link Detox Tool für seine Backlink-Analysen genutzt hat, kann sich freuen. Ein datengetriebener Algorithmus, der nach ähnlichen Kriterien wie der Google-Bot die Links bewerten soll, bringe bessere Einschätzung als zuvor über die Toxizität eines Link – so liest man es auf der Seite der linkresearchtools. Man darf gespannt sein!
  • Können seitenweite Nofollow Links zu einer Pinguin-Abstrafung führen? Das fragt sich Martin Mißfeldt, nachdem er zweimal jeweils zeitgleich mit dem Setzen von Sidewide Nofollow Links starke Sichtbarkeitsverluste seiner Domain brillen-sehhilfen.de zu verzeichnen hatte. Interessant sind Martins Beobachtungen auf jeden Fall und die Diskussion in den Kommentaren auch.
  • Auch interessant: Wie man es schafft über Guest Posts hochwertige Links zu generieren, wenn der Kunde einem schwierigen Bereich (in diesem Fall der Glücksspielindustrie) angehört. Der Autor bringt hier kreative Ideen, wie man trotzdem hochwertigen Content umsetzen kann.
  • Google möchte Apps indexieren: Genauso wie Google Websites crawlt und indexiert, sollen jetzt auch Android Apps indexiert werden. Um Google über die App zu informieren, sollen Webmaster die Sitemap und die Webmaster Tools nutzen. Google zeigt dann die App als Sitelink in den SERPs an, wenn diese zu der Suchanfrage passt, der Nutzer bei Android eingeloggt und die App installiert ist. Die neue Google-Suchfunktion wird derzeit noch getestet, doch schon bald sollen die US-Nutzer Apps in den SERPs finden können.

Einen guten Start ins Wochenende wünschen euch

Gesa und die SEO Trainees

Lust auf einen Gastartikel?
Möchtest du einen Gastartikel auf SEO-Trainee.de veröffentlichen? Dann schau dir unsere Richtlinien für Gastbeiträge an und melde dich ganz einfach bei uns! Wir freuen uns von dir zu hören

Autor:In

3 Antworten

  1. Sehr guter und informativer Beitrag!

    Kleine Anmerkung:
    Es gibt immer noch viele sogenannte Einsteiger in den SEO-Bereich, wobei ich den Kreis gerne hinter mir schließe, mich also absolut dazuzähle, obwohl ich mich schon durch so manchen Wälzer mit Tipps und Anleitungen für ein erfolgreiches SEO durchgekämpft habe.
    Einige dieser Anleitungen sind für meinen Geschmack jedoch mit etwas zuviel „Fach-Chinesisch“ gespickt, obgleich sie eigentlich für Einsteiger geschrieben sein wollen. Etwas weniger Experten-Ausdrücke oder zumindest einige erklärende Worte dazu, würden so manchen Fachartikel – zumindest für Nichtexperten – um Einiges leserlicher gestalten.

    1. Hallo Lothar,
      danke für deinen Kommentar und dein Feedback. Wir freuen uns natürlich sehr , dass gerade auch viele SEO-Einsteiger unsere Artikel lesen und gemeinsam mit uns lernen! Unsere Artikel sollen natürlich auch schön in die Tiefe gehen, aber du hast Recht – Fachbegriffe müssen dann ggf. nochmal erklärt werden. Also dank dir für diesen „Reminder“! 🙂

      Liebe Grüße
      Gesa

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert