Suche
Close this search box.

Black Hat SEO vs. Googles Mojo (Gastartikel)

Mein Name ist Natascha Lux und ich bin, wie so viele SEOs, als Quereinsteiger in diese Branche gerutscht. Als Volontärin in der Online-Redaktion des Autoteile-Preisvergleichs carmio.de bin ich seit Mai 2010 für das Thema Suchmaschinenoptimierung zuständig. Auch privat blogge ich auf gedankenpogo.de über Neuigkeiten aus der SEO-Welt. Dies ist  mein erster Gastartikel und über reichlich Feedback würde ich mich freuen.

In den letzten Wochen wurde ja viel hinsichtlich der nachlassenden Qualität von Googles Suchresultaten gemunkelt. Es wurde sogar behauptet, dass der Suchmaschinenriese sein „Mojo“ verloren hätte. Google arbeitet nach eigener Aussage unentwegt und mit allen Kräften daran, die SERPs sauber zu halten. Schließlich besteht „das Ziel von Google (…) darin, die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen.“ (siehe Unternehmensstrategie) Auf das erhöhte Spamvorkommen wurde bereits reagiert. Im November hatte Matt Cutts auf der PubCon den Spammern dieser Welt erneut den Kampf angesagt. Zu Googles geplanten oder bereits ergriffenen Anti-Spam-Maßnahmen gehören laut Cutts:

  • die viel stärkere Gewichtung von Spam-Berichten
  • die Bekämpfung von Spam bei Google Places und im Mobile-Bereich (Android)
  • die Reduzierung von gehackten Seiten in den Suchergebnissen (hier soll bereits eine Reduzierung um 90% stattgefunden haben)
  • eine genauere bzw. erneute Überprüfung von Keyword-Domains, die für das im Domainnamen vorkommende Keyword enorm gut ranken
  • ein Paid-Link-Tool soll gekauften Links den Wind aus den Segeln nehmen, bzw. dafür sorgen, dass diese blockiert werden und keine Power weitergeben

Gerade der letzte Punkt ist meiner Meinung nach sehr interessant. Hier kommt natürlich einerseits die Frage ins Spiel, wie Google dies „fair“ realisieren will? Bei „Sponsoren- oder Partner-Links“ ist ein Kauf evtl. noch einigermaßen zu erkennen, aber wie sieht es bei Links in redaktionellen Beiträgen aus? Da hat selbst der Quality-Rater ein Problem. Klar verwendet Google bereits Filter, die auf bestimmte Kennzeichen eines Linkkaufs achten. Dazu kann man beispielsweise Footerlinks, den Umgebungstext eines Links oder auch einen wilden Themenmix der Links zählen. Man darf also gespannt sein, was passieren wird, wenn das neue Paid-Link-Tool zum Einsatz kommt.

Das „Farmer-Update“

Ende Januar hat Matt Cutts außerdem eine neue Spam-Quelle ins Visier genommen – so genannte „Content Farms“. Hier handelt es sich um Webseiten, deren einziges Ziel es ist eine hohe Klickrate aufzuweisen, um ihre Werbekunden bei Laune zu halten. Die angebotenen Inhalte sind allerdings von schlechter Qualität, die Texte sind oft kopiert und bieten dem User keinen Mehrwert. Vor einigen Tagen hat Google bereits Worten Taten folgen lassen und den Algorithmus zum Nachteil solcher Content-Farmen umgestellt.

©Carolin Daum/pixelio.de
Billiger Massencontent soll mit dem Update aus den SERPs gekickt werden, ©Carolin Daum/pixelio.de

Im Sistrix-Blog findet sich hierzu eine ausführliche Liste der betroffenen Seiten und deren Sichtbarkeitsverluste im US-Index. Es handelt sich hauptsächlich um Artikelprojekte, wie Yahoo’s associatedcontent.com oder suite101.com. SEOs in den USA nutzten diese Webseiten (bislang) als sichere und schnelle Backlinkquellen. Nach Googles Aufräumaktion werden Einige ihre SEO-Strategie daher ändern müssen. Bisher wurde das „Farmer-Update“ nur in den USA durchgeführt. Eine Ausweitung auf Europa sollte aber nicht allzu lang auf sich warten lassen. Das bietet natürlich Spielraum für Spekulationen, welche Seiten aus dem deutschen Index verbannt werden, wenn das Update ausgeweitet wird. Die deutschsprachige Variante von Suite101 sowie die zahlreichen Artikelverzeichnisse, wie z.B. article-base.de oder artikelplanet.de werden dann wohl zu den Verlierern zählen.

Wer sich jetzt fragt, wie Google überhaupt schlechte Inhalte erkennt, also die Spreu vom Weizen trennt, der findet im SEO-Book-Blog einige mögliche Signale.

Alles in allem klingt die Anti-Spam-Strategie nach einem wirksamen Schlachtplan im Kampf gegen Spam und Black Hat SEO. Es geht schließlich um Googles Mojo, sprich Marktanteile, Werbeeinahmen und natürlich den guten Ruf. Doch wie gehen Black Hats vor, wie mogeln sie sich in die Top-Platzierungen und wird es auch in Zukunft funktionieren, mit diesen Mitteln Erfolg zu haben?

Ein kurzer Exkurs zur dunklen SEO-Seite

Für die Bezeichnung „Black Hat SEO“ gibt es zwar keine offizielle Definition, aber prinzipiell lassen sich hierunter alle On- und Off-Page-Maßnahmen zusammenfassen, die gegen die Richtlinien der Suchmaschinen verstoßen. Alle unerlaubten Techniken, die das Ranking verbessern sollen, gelten als Black Hat. In den Richtlinien für Webmaster von Google werden diesbezüglich einige nicht erlaubte Techniken angesprochen, die man daher unter den schwarzen SEO-Hut schieben kann. Dazu gehören vor allem:

  • versteckter Text oder versteckte Links
  • Doorwaypages
  • Keyword-Stuffing
  • Linkfarmen
  • Linkkauf
  • Cloaking
  • Content-Klau und damit einher gehend Duplicate Content
  • Blog- oder Foren-Spam
  • Content-Farmen

Ein Großteil dieser Techniken sind bereits veraltet und bringen rein gar nichts mehr. Hier haben Google und auch die anderen Suchmaschinen schon länger einen Riegel vorgeschoben. Black-Hat-optimierte Seiten sind nur für Robots gedacht und bringen dem User aus Fleisch und Blut keinen Mehrwert, haben also keine Relevanz. Aus diesem Grund haben Google und Co. kein Interesse daran, sich ihre SERPs mit solchen Seiten zu verseuchen.

Zu den dunklen Methoden, die heute nicht mehr funktionieren, gehören versteckter Text (früher auch gern weiße Schrift auf weißem Grund) und verborgene Links, Doorwaypages (Seiten für Robots mit sinnlosen Inhalten, die auf ein Keyword optimiert sind), Keyword-Stuffing, Linkfarmen (100 Links auf einer Seite, kein Content), Cloaking (Besucher und Robots bekommen unterschiedliche Seiten angezeigt) und Content-Klau.

© Rike/pixelio.de
© Rike/pixelio.de

Etwas anders sieht es mit den Black-Hat-Methoden Linkkauf sowie Blog- und Foren-Spam aus. Wer mit einem Projekt Top-Rankings erzielen möchte, der hat, gerade wenn es um hart umkämpfte Money-Keywords geht, ohne Linkkauf keine echte Chance, die Konkurrenz zu überholen oder zumindest gleichzuziehen. Wie oben bereits angedeutet, arbeiten Suchmaschinen mit Filtern, um gekaufte Links zu erkennen. Doch wie soll ein Robot solch einen Paid-Link ausfindig machen, wenn er eben nicht die angesprochenen Kennzeichen aufweist? Dies ist beispielsweise der Fall, wenn er von einer redaktionell gepflegten Seite kommt und nicht mal für das menschliche Auge nicht-organisch erscheint. Ähnlich sieht es mit Links aus Foren oder Blog-Kommentaren aus. Geht man hier geschickt vor und liefert der Community einen sinnvollen Beitrag, ist der ergatterte Link nicht als Spam zu erkennen und wird somit auch viel eher freigeschaltet. Wer sich die Mühe macht einen Blog-Post zu lesen und ernsthaft zu kommentieren, hat sich, wie ich finde, den Link dann auch verdient. Linkgeiz sollte für solche Fälle absolut abgestellt werden.

Black-Hat-Eigenschaften

Dies alles bedeutet natürlich mehr Arbeit beim Linkbuilding – was mich direkt zu den Eigenschaften von Black Hat SEO bringt. Saša Ebach hat im Interview mit Rankingcheck „White Hat SEO vs. Black Hat SEO“ einige sehr passende Assoziationen aufgeführt:

„schnellschnell, faul, quantitätsbewusst, abgebrüht, ausgefuchst, instabil, anfechtbar, knapp, Minimalaufwand, verschlechternd, schnelles Geld.“

Hier wird einmal mehr deutlich, dass Black Hat SEO, wenn überhaupt, nur extrem kurzfristig etwas bringt. In Zukunft wird es wohl noch schwerer, zumindest für kurze Zeit oben zu stehen – siehe Anti-Spam-Maßnahmen. Fliegt der Schwindel einmal auf, hat man die Domain verbrannt, bekommt eine Penalty und wechselt wahrscheinlich frustriert zu weniger risikoreichen und erfolgversprechenden SEO-Methoden. Ich spreche hier nicht nur von White Hat SEO, sondern auch von gut ausgeklügelten Techniken, die nicht sofort entlarvt werden. Hierbei geht es vor allem darum, eine gute Balance zu finden, indem man den Menschen mit seinen Projekten immer auch einen Mehrwert bietet. Ein schön in den Content eingebundener Link ist nichts Verwerfliches und tut niemandem weh – anders als Linkfarmen oder Irrelevanz. Denn dann braucht man meiner Meinung nach auch kein, wie es in den Google Richtlinien so schön heißt, „schlechtes Gefühl haben“, wenn man öffentlich über seine SEO-Maßnahmen spricht. Wenn man dies verinnerlicht, kann man mit den angekündigten Anti-Spam-Kampfansagen auch durchaus gut leben. Schließlich ist man selbst auch von Zeit zu Zeit „normaler“ User …

Lust auf einen Gastartikel?
Möchtest du einen Gastartikel auf SEO-Trainee.de veröffentlichen? Dann schau dir unsere Richtlinien für Gastbeiträge an und melde dich ganz einfach bei uns! Wir freuen uns von dir zu hören

Autor:In

16 Antworten

  1. @André: Seh ich auch so.
    @Philipp & Ina: Ich möchte auch gar nicht sagen, dass es einfach ist hier eine klare Schwarz-Weiß-Grenze zu ziehen. Allerdings bin ich dennoch der Meinung, dass nicht alle Off-Page-Maßnahmen sofort als Black Hat SEO gelten. Hier kommt natürlich wieder die Intention ins Spiel. Wie du schon richtig sagst, Philipp, widerspricht die reine Gier nach guten Rankings dem Google Ansatz – das richtige Werben für seine Seite aber nicht. Hier gibt es einen natürlichen Kreislauf: guter Content generiert Links/ambitionierter Webmaster vernetzt sich mit themenrelevanten Seiten/der Traffic wird erhöht/die Rankings steigen…

  2. Also Einigkeit herrscht ja in der Hinsicht, dass alle Maßnahmen die primär dem Nutzer auf der Seite helfen völlig ok sind. Auch reine Erklärungen der Seite etc. sind kein Problem. Zu allem anderen kann man nur sagen ok es gibt auch noch ganz böse schwarze Techniken wie eben reinster Spam, aber eine echte Grenze kann doch keiner ziehen. Denn ob ein bestimmter Link nun illegal ist oder ob je Maßnahme nun mit böser Absicht gemacht ist, lässt sich neutral und von außen nciht beurteilen.

    Jeder könnte sich selsbt an die Nase fassen und sage: OK hier betrüge ich in gewisser Weise oder will nur Geld durch Ranking haben, aber wie soll Google es schon machen. Sie können in ihrem Algorithmus nicht alles perfekt einfangen, selbst wenn sie wollen. Sie behaupten eben immer bestimmte Regeln seien fix, aber letztlich sieht man oft genug, dass sie funktionieren.

    Sprich final haben wir also Maßnahmen die auf jeden Fall ok sind und welche die nur in seltenen Einzelfällen funktionieren.

    Alles dazwischen ist eine Grauzone in der es auf Fingerspitzengefühl bei den Webmastern ankommt und gleichzeitig auf die Reaktion von Google, die eben auch nicht immer einheitlich ist (was auch an menschlichen Qualityratern liegen kann).

  3. Eben, für eine gute Vernetzung sind themenrelevante Links ok. Aber nicht des PRs wegen. Wie will hier aber die Grenze gezogen werden? Kann man einem Webmaster wirklich pauschal unterstellen, dass er nur auf den PR aus ist, wenn er sich Links besorgt? Oder geht es ihm nicht vielleicht auch darum, „möglichst viele Nutzer auf die Seite zu bringen“? Und dann wären wir schon wieder in der Grauzone, weil das Motiv nur halb edel ist.
    Auch wenn man den Aspekt des Robot-an-die-Hand-Nehmens mit einbezieht, bleibt doch der manipulative Charakter von SEO. Schließlich arbeitet auch kein Webmaster ausschließlich für den Robot.
    Alles in Allem würde ich also Philipp zustimmen.

  4. @Natascha: Genau das ist es ja: Google hat natürlich nichts dagegen, dass guter Content Links provoziert. Seinen Nutzern möchte Google möglichst guten Content präsentieren. Guter Content wird verlinkt, so die Idee Googles. Deshalb sind Backlinks für Google auch ein wichtiger Indikator bei der Qualifizierung von Domains. Verlinkt ein SEO Content, weil er gut ist? Wenn ja, ist das Google-konform. Hat er andere Gründe – etwa eine Verbesserung des Rankings – ist es das nicht.

  5. Was ist mit Pressearbeit? Für mich eine total saubere Whitehat-Offpage-Maßnahme die von Google sogar so gewünscht und akzeptiert wird.

    Irgendwie muss man ja seine Seite im Internet bekannt machen, und PR ist da sicher eine Möglichkeit, die total legitim ist und wo Google nichts dagegen haben kann 🙂

    Durch Pressearbeit kann man dann Blogbetreiber/Redakteuere erreichen, die dann wiederum (freiwllig) über das neue Angebot/Seite schreiben und so Backlinks für die eigene Seite setzen. Natürlich schreibt ein Redakteur nur über die eigene Seite wenn die auch eine gewisse Qualität hat bzw. einen Sinn hat.

  6. Vielen Dank erstmal an alle Kommentatoren für das nette Feedback! 🙂
    @Philipp: Ich denke nicht, dass alle Off-Page Maßnahmen gegen die Google Richtlinien verstoßen. Hierbei denke ich z.B. an einen gut gemachten Linkbait, der zwar aktiv eine Verlinkung anstößt, aber dann doch irgendwie organisches Wachstum bringt.
    Auch das Eintragen in Blog-Verzeichnisse oder Webkataloge verstößt meiner Meinung nach nicht gegen die Regeln. Es kommt natürlich immer auf ein gesundes Maß an, die Intention dahinter kann ja „vielfältige“ Gründe haben ;-).

    1. Wenn ein SEO eine Domain in einen Webkatalog einträgt, tut er das ja in der Regel nicht, weil er die Seite zufällig entdeckt und für so gut hält, dass er sie anderen gern empfehlen möchte. Es geht vielmehr darum, Suchmaschinen vorzutäuschen, dass es sich um eine Empfehlung handelt. Das gleiche gilt auch für alle anderen Offpage-Methoden, ganz egal, wie gut oder kreativ oder schlau oder aufwendig sie gemacht sind.

      1. Google gibt ja selbst Tipps zur Suchmaschinenoptimierung. Zwar bezieht sich der Großteil dieses Leitfadens auf On-Page-Faktoren, es gibt aber auch einen Abschnitt darüber, wie man für seine Webseite werben kann. Hier sagt Google: „Effektives Promoten eures neuen Contents führt zu schnellerer Verbreitung unter denjenigen, die sich für genau dieses Thema interessieren.“
        Diesbezüglich wird darauf hingewiesen, dass es Google nicht gefällt, sich nur um des PageRanks wegen bei themenrelevanten Webseiten um Links zu bemühen. Wenn es aber darum geht, möglichst viele Nutzer auf die Seite zu bringen, ist es ok sich um eine Verlinkung zu kümmern.
        Ein anderer Punkt ist natürlich die Qualität der eigenen Webseite. Wenn man sich um guten Content bemüht, der eine bestimmte Zielgruppe anspricht, wird Google nichts dagegen tun, wenn man sich in dieser Community vernetzt. Das ist ja in der Blogger-Szene Gang und Gebe.

  7. @philipp
    strengenommen verstößt inzwischen jede OFFPAGE Maßnahme gegen Googles Richtlinien – korrekt!

    Auch bei seo-united gabs gestern einen ganz ähnlichen Artikel – inzwischen kann jeder Backlink und jede Bewertung die Seite zum Absturz bringen… d.h. Suchmaschinenoptimierung wird sich noch stärker auf die onpage Faktoren konzentrieren müssen…

  8. Hi zusammen,
    @Natascha: Schöner Gastartikel. Vielleicht etwas zu lang und vielleicht etwas zu „formell“ aber inhaltlich brauche ich nicht zu sagen, dass man nichts beanstanden kann.
    Ist eben etwas für schlaue Leser, die sich die Moral von der Geschicht auch mal selbst zusammen suchen können!
    Freue mich auf mehr von Dir 🙂

    Und ja: ich sehe es wie @ArndS: Jeder muss seinen Weg finden. Wenn er keinen weiß bis grauen Weg wählt, wird er sehen, ob er damit durchkommt. Wenn nicht: Glück für die anderen!

  9. @Philipp und @Andi so streng würde ich das jetzt nicht sehen. Nehmen wir nur mal das wichtige Beispiel der Informationsarchitektur. Was wenn der wirklich wichtige und gute Content auf meiner Seite etliche Ebenen tief in der Navigation verborgen oder etwa durch unglücklich gesetzte Framesets/ Flash Seiten etc. von G nicht erfasst wird oder er einfach nicht die nötige Aufmerksamkeit bekommt? Das beheben solcher Fehler gehört auch zur SEO daher kann man nicht immer von grau sprechen sobald SEO auf den Plan kommt. Was Offpagemaßnahmen angeht ist man jedoch mMn direkt im grauen Bereich unterwegs wenn man los zieht um sich Links für ein besseres Ranking zu verschaffen.

    @Natascha Sehr schöner Artikel. Dieser Satz: „Ein schön in den Content eingebundener Link ist nichts Verwerfliches und tut niemandem weh“ gefällt mir am besten 🙂

    Letzten Endes, sch****t auf die Hutfarbe jeder muss da seinen Weg finden 😉 Solche Blogposts können nur eine gute Hilfestellung sein.

    Grüße

  10. Schöner Gastbeitrag 🙂
    Ich muss den Kommentierenden allerdings widersprechen, denn nicht jede Suchmaschinenoptimierung ist per se grau oder gegen Google, ganz im Gegenteil!
    Technische barrieren auszuräumen und dem Robot beim ‚verstehen‘ der Seite zu helfen ist doch ganz im Interesse von google und Co!
    Seitenstruktur, interne Verlinkungen und selbst Dinge wie Titel und descriptions sinnvoll anzupassen sind doch absolut sinnvolle und ehrenwerte Maßnahmen im Seo alltag.
    Klar, wenn es in Richtung linkbuilding geht, wird es schon deutlich unklarer, aber selbst dort gibt es ‚weisse‘ Techniken und Methoden, nur dass diese meist mehr Zeit, Kreativität und nicht zuletzt Geld bedürfen.
    Just my 2 cents

      1. Hallo Kai, hallo Arndt, ihr habt natürlich recht, dass alle Maßnahmen, die zum Ziel haben, den Suchmaschinen-Robot an die Hand zu nehmen, damit er besser versteht, was auf der Seite wichtig ist, Google & Co wohl nicht ganz schlecht finden können. Was ich eigentlich meine ist, dass Maßnahmen, bei denen der eigentliche Zweck ist, das Ranking zu verbessern, manchmal Nebeneffekte wie etwa eine größere Barrierefreiheit haben. Diese Nebeneffekte sind aber eben nicht der Grund, warum man SEO macht. Spätestens bei der OffPage-Optimierung kann ich mir keine Methode vorstellen, die mit den Google-Richtlinien konform ist, denn jeder aktive Linkaufbau widerspricht dem Backlink-gleich-Empfehlung-Gedanken Googles.

  11. Vielen Dank für deinen Gastartikel. Ganz schön lang, aber sehr interessant. Strenggenommen verstößt ja jede SEO-Maßnahme per se gegen die Google-Richtlinien. Denn immer, wenn eine gute Positionierung in den SERPs der Grund für die Optimierung ist und nicht das Nutzerwohl, kann das Google nicht gefallen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert