Gastartikel: Black Hat SEO vs. Googles Mojo

SEO-Trainee.de

Black Hat SEO vs. Googles Mojo (Gastartikel)

Geschrieben von
Black Hat SEO vs. Googles Mojo (Gastartikel)
Share on Facebook38Share on Google+0Tweet about this on TwitterEmail this to someone

Mein Name ist Natascha Lux und ich bin, wie so viele SEOs, als Quereinsteiger in diese Branche gerutscht. Als Volontärin in der Online-Redaktion des Autoteile-Preisvergleichs carmio.de bin ich seit Mai 2010 für das Thema Suchmaschinenoptimierung zuständig. Auch privat blogge ich auf gedankenpogo.de über Neuigkeiten aus der SEO-Welt. Dies ist  mein erster Gastartikel und über reichlich Feedback würde ich mich freuen.

In den letzten Wochen wurde ja viel hinsichtlich der nachlassenden Qualität von Googles Suchresultaten gemunkelt. Es wurde sogar behauptet, dass der Suchmaschinenriese sein „Mojo“ verloren hätte. Google arbeitet nach eigener Aussage unentwegt und mit allen Kräften daran, die SERPs sauber zu halten. Schließlich besteht „das Ziel von Google (…) darin, die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen.“ (siehe Unternehmensstrategie) Auf das erhöhte Spamvorkommen wurde bereits reagiert. Im November hatte Matt Cutts auf der PubCon den Spammern dieser Welt erneut den Kampf angesagt. Zu Googles geplanten oder bereits ergriffenen Anti-Spam-Maßnahmen gehören laut Cutts:

  • die viel stärkere Gewichtung von Spam-Berichten
  • die Bekämpfung von Spam bei Google Places und im Mobile-Bereich (Android)
  • die Reduzierung von gehackten Seiten in den Suchergebnissen (hier soll bereits eine Reduzierung um 90% stattgefunden haben)
  • eine genauere bzw. erneute Überprüfung von Keyword-Domains, die für das im Domainnamen vorkommende Keyword enorm gut ranken
  • ein Paid-Link-Tool soll gekauften Links den Wind aus den Segeln nehmen, bzw. dafür sorgen, dass diese blockiert werden und keine Power weitergeben

Gerade der letzte Punkt ist meiner Meinung nach sehr interessant. Hier kommt natürlich einerseits die Frage ins Spiel, wie Google dies „fair“ realisieren will? Bei „Sponsoren- oder Partner-Links“ ist ein Kauf evtl. noch einigermaßen zu erkennen, aber wie sieht es bei Links in redaktionellen Beiträgen aus? Da hat selbst der Quality-Rater ein Problem. Klar verwendet Google bereits Filter, die auf bestimmte Kennzeichen eines Linkkaufs achten. Dazu kann man beispielsweise Footerlinks, den Umgebungstext eines Links oder auch einen wilden Themenmix der Links zählen. Man darf also gespannt sein, was passieren wird, wenn das neue Paid-Link-Tool zum Einsatz kommt.

Das „Farmer-Update“

Ende Januar hat Matt Cutts außerdem eine neue Spam-Quelle ins Visier genommen – so genannte „Content Farms“. Hier handelt es sich um Webseiten, deren einziges Ziel es ist eine hohe Klickrate aufzuweisen, um ihre Werbekunden bei Laune zu halten. Die angebotenen Inhalte sind allerdings von schlechter Qualität, die Texte sind oft kopiert und bieten dem User keinen Mehrwert. Vor einigen Tagen hat Google bereits Worten Taten folgen lassen und den Algorithmus zum Nachteil solcher Content-Farmen umgestellt.

©Carolin Daum/pixelio.de

Billiger Massencontent soll mit dem Update aus den SERPs gekickt werden, ©Carolin Daum/pixelio.de

Im Sistrix-Blog findet sich hierzu eine ausführliche Liste der betroffenen Seiten und deren Sichtbarkeitsverluste im US-Index. Es handelt sich hauptsächlich um Artikelprojekte, wie Yahoo’s associatedcontent.com oder suite101.com. SEOs in den USA nutzten diese Webseiten (bislang) als sichere und schnelle Backlinkquellen. Nach Googles Aufräumaktion werden Einige ihre SEO-Strategie daher ändern müssen. Bisher wurde das „Farmer-Update“ nur in den USA durchgeführt. Eine Ausweitung auf Europa sollte aber nicht allzu lang auf sich warten lassen. Das bietet natürlich Spielraum für Spekulationen, welche Seiten aus dem deutschen Index verbannt werden, wenn das Update ausgeweitet wird. Die deutschsprachige Variante von Suite101 sowie die zahlreichen Artikelverzeichnisse, wie z.B. article-base.de oder artikelplanet.de werden dann wohl zu den Verlierern zählen.

Wer sich jetzt fragt, wie Google überhaupt schlechte Inhalte erkennt, also die Spreu vom Weizen trennt, der findet im SEO-Book-Blog einige mögliche Signale.

Alles in allem klingt die Anti-Spam-Strategie nach einem wirksamen Schlachtplan im Kampf gegen Spam und Black Hat SEO. Es geht schließlich um Googles Mojo, sprich Marktanteile, Werbeeinahmen und natürlich den guten Ruf. Doch wie gehen Black Hats vor, wie mogeln sie sich in die Top-Platzierungen und wird es auch in Zukunft funktionieren, mit diesen Mitteln Erfolg zu haben?

Ein kurzer Exkurs zur dunklen SEO-Seite

Für die Bezeichnung „Black Hat SEO“ gibt es zwar keine offizielle Definition, aber prinzipiell lassen sich hierunter alle On- und Off-Page-Maßnahmen zusammenfassen, die gegen die Richtlinien der Suchmaschinen verstoßen. Alle unerlaubten Techniken, die das Ranking verbessern sollen, gelten als Black Hat. In den Richtlinien für Webmaster von Google werden diesbezüglich einige nicht erlaubte Techniken angesprochen, die man daher unter den schwarzen SEO-Hut schieben kann. Dazu gehören vor allem:

  • versteckter Text oder versteckte Links
  • Doorwaypages
  • Keyword-Stuffing
  • Linkfarmen
  • Linkkauf
  • Cloaking
  • Content-Klau und damit einher gehend Duplicate Content
  • Blog- oder Foren-Spam
  • Content-Farmen

Ein Großteil dieser Techniken sind bereits veraltet und bringen rein gar nichts mehr. Hier haben Google und auch die anderen Suchmaschinen schon länger einen Riegel vorgeschoben. Black-Hat-optimierte Seiten sind nur für Robots gedacht und bringen dem User aus Fleisch und Blut keinen Mehrwert, haben also keine Relevanz. Aus diesem Grund haben Google und Co. kein Interesse daran, sich ihre SERPs mit solchen Seiten zu verseuchen.

Zu den dunklen Methoden, die heute nicht mehr funktionieren, gehören versteckter Text (früher auch gern weiße Schrift auf weißem Grund) und verborgene Links, Doorwaypages (Seiten für Robots mit sinnlosen Inhalten, die auf ein Keyword optimiert sind), Keyword-Stuffing, Linkfarmen (100 Links auf einer Seite, kein Content), Cloaking (Besucher und Robots bekommen unterschiedliche Seiten angezeigt) und Content-Klau.

© Rike/pixelio.de

© Rike/pixelio.de

Etwas anders sieht es mit den Black-Hat-Methoden Linkkauf sowie Blog- und Foren-Spam aus. Wer mit einem Projekt Top-Rankings erzielen möchte, der hat, gerade wenn es um hart umkämpfte Money-Keywords geht, ohne Linkkauf keine echte Chance, die Konkurrenz zu überholen oder zumindest gleichzuziehen. Wie oben bereits angedeutet, arbeiten Suchmaschinen mit Filtern, um gekaufte Links zu erkennen. Doch wie soll ein Robot solch einen Paid-Link ausfindig machen, wenn er eben nicht die angesprochenen Kennzeichen aufweist? Dies ist beispielsweise der Fall, wenn er von einer redaktionell gepflegten Seite kommt und nicht mal für das menschliche Auge nicht-organisch erscheint. Ähnlich sieht es mit Links aus Foren oder Blog-Kommentaren aus. Geht man hier geschickt vor und liefert der Community einen sinnvollen Beitrag, ist der ergatterte Link nicht als Spam zu erkennen und wird somit auch viel eher freigeschaltet. Wer sich die Mühe macht einen Blog-Post zu lesen und ernsthaft zu kommentieren, hat sich, wie ich finde, den Link dann auch verdient. Linkgeiz sollte für solche Fälle absolut abgestellt werden.

Black-Hat-Eigenschaften

Dies alles bedeutet natürlich mehr Arbeit beim Linkbuilding – was mich direkt zu den Eigenschaften von Black Hat SEO bringt. Saša Ebach hat hier im „White Hat SEO vs. Black Hat SEO“-Interview einige sehr passende Assoziationen aufgeführt:

„schnellschnell, faul, quantitätsbewusst, abgebrüht, ausgefuchst, instabil, anfechtbar, knapp, Minimalaufwand, verschlechternd, schnelles Geld.“

Hier wird einmal mehr deutlich, dass Black Hat SEO, wenn überhaupt, nur extrem kurzfristig etwas bringt. In Zukunft wird es wohl noch schwerer, zumindest für kurze Zeit oben zu stehen – siehe Anti-Spam-Maßnahmen. Fliegt der Schwindel einmal auf, hat man die Domain verbrannt, bekommt eine Penalty und wechselt wahrscheinlich frustriert zu weniger risikoreichen und erfolgversprechenden SEO-Methoden. Ich spreche hier nicht nur von White Hat SEO, sondern auch von gut ausgeklügelten Techniken, die nicht sofort entlarvt werden. Hierbei geht es vor allem darum, eine gute Balance zu finden, indem man den Menschen mit seinen Projekten immer auch einen Mehrwert bietet. Ein schön in den Content eingebundener Link ist nichts Verwerfliches und tut niemandem weh – anders als Linkfarmen oder Irrelevanz. Denn dann braucht man meiner Meinung nach auch kein, wie es in den Google Richtlinien so schön heißt, „schlechtes Gefühl haben“, wenn man öffentlich über seine SEO-Maßnahmen spricht. Wenn man dies verinnerlicht, kann man mit den angekündigten Anti-Spam-Kampfansagen auch durchaus gut leben. Schließlich ist man selbst auch von Zeit zu Zeit „normaler“ User …

Bewerte unsere Artikel

Hat dir der Artikel gefallen? Sag es uns und bewerte ihn mit den Hütchen.
0
 
1.8/7 (8 Bewertungen)
Dieser Artikel wurde am Mittwoch, den 02. März 2011 geschrieben. Wir freuen uns auf Deine Meinung, nutz hierfür einfach die Kommentarfunktion.
16 Kommentare bisher • RSS-Feed für Kommentare
Hinterlasse Deinen Kommentar!
  • Natascha sagt:

    @André: Seh ich auch so.
    @Philipp & Ina: Ich möchte auch gar nicht sagen, dass es einfach ist hier eine klare Schwarz-Weiß-Grenze zu ziehen. Allerdings bin ich dennoch der Meinung, dass nicht alle Off-Page-Maßnahmen sofort als Black Hat SEO gelten. Hier kommt natürlich wieder die Intention ins Spiel. Wie du schon richtig sagst, Philipp, widerspricht die reine Gier nach guten Rankings dem Google Ansatz – das richtige Werben für seine Seite aber nicht. Hier gibt es einen natürlichen Kreislauf: guter Content generiert Links/ambitionierter Webmaster vernetzt sich mit themenrelevanten Seiten/der Traffic wird erhöht/die Rankings steigen…

  • Alex sagt:

    Also Einigkeit herrscht ja in der Hinsicht, dass alle Maßnahmen die primär dem Nutzer auf der Seite helfen völlig ok sind. Auch reine Erklärungen der Seite etc. sind kein Problem. Zu allem anderen kann man nur sagen ok es gibt auch noch ganz böse schwarze Techniken wie eben reinster Spam, aber eine echte Grenze kann doch keiner ziehen. Denn ob ein bestimmter Link nun illegal ist oder ob je Maßnahme nun mit böser Absicht gemacht ist, lässt sich neutral und von außen nciht beurteilen.

    Jeder könnte sich selsbt an die Nase fassen und sage: OK hier betrüge ich in gewisser Weise oder will nur Geld durch Ranking haben, aber wie soll Google es schon machen. Sie können in ihrem Algorithmus nicht alles perfekt einfangen, selbst wenn sie wollen. Sie behaupten eben immer bestimmte Regeln seien fix, aber letztlich sieht man oft genug, dass sie funktionieren.

    Sprich final haben wir also Maßnahmen die auf jeden Fall ok sind und welche die nur in seltenen Einzelfällen funktionieren.

    Alles dazwischen ist eine Grauzone in der es auf Fingerspitzengefühl bei den Webmastern ankommt und gleichzeitig auf die Reaktion von Google, die eben auch nicht immer einheitlich ist (was auch an menschlichen Qualityratern liegen kann).

Ergänzungen oder Fragen? Diesen Artikel kommentieren: