Suche
Close this search box.

OMCap 2012 Recap

Um ein Recap der OMCap 2012 zu schreiben, muss man sich ganz schön ins Zeug legen! Mit maximaler, stenographischer Tippgeschwindigkeit war ich für euch dabei und habe die wichtigsten Ergebnisse festgehalten. Danach gab es dann kühles Bier und alles war wieder gut. Aber lest selbst, wie es war!

SEO: Nachhaltige Link Building Strategien

Im Speaker Track von Zalando haben Maik Metzen und Frank Hohenleitner wichtige Hinweise im Umgang mit dem Pinguin-Update vorgestellt.

Zunächst seine Post-Pinguin-Strategie:

  • Fokus auf qualitative Links setzen.
  • auf natürliche Ankertexte achten.
  • Brands haben hohes Vertrauen (Brand Keyword-Domains sind deshalb tendenziell nicht betroffen).

Bei einem neuen Projekt sollte man:

  • den Fokus der Linkaufbau Strategie auf die Startseite legen,
  • ausschließlich Brand Keywords und deiktische Ausdrücke (z.B.: „hier“) verwenden,
  • nach einiger Zeit vermehrt auf Deeplinks achten.

Bei einer Brands,-bzw. Trustdomain sollte man:

  • den Fokus auf Deeplinks setzen,
  • Mischung aus Brand Keywords und relevanten Keywords verwenden,
  • und gleich starke Linkgeber-Seite auf die Startseite verlinken lassen.

An dieser Stelle ist Frank Hohenleiter eingesprungen, SEO Consultant bei Booming und Director Consulting für Searchmetrics. Eine Studie von Searchmetrics hat sich mit der Verbreitung des Authorship Markups beschäftigt. Besonders in Deutschland ist auffällig, dass fast ausschließlich Tech-Blogs (und SEOs) sich des Markups bedienen. Trotzdem lohnt es sich besonders im Hinblick auf den Author Page Rank passende Autoren zu identifizieren, und gegebenenfalls auf deren Domains einen Link zu ergattern.
Bei der anschließenden Diskussion kam die Frage auf, wie man Projekte reanimieren kann, die durch das Pinguin-Update abgestraft worden sind. Frank rät an dieser Stelle:

  • keinen kopflosen Linkabbau betreiben.
  • offensichtlich schlechte Link tendenziell abbauen, aber in zeitlich und quantitativ sinnvollen Maßen.
  • Reconsideration Request unbedingt vermeiden, wenn es geht.

Display Advertising: Wie holt man wirkliche Performance raus?

Alexander Gösswein, Managing Director von criteo zeigt auf, dass 98% aller Besucher eines Online Shops die Seite verlassen, ohne einen Kauf getätigt zu haben. Personalisiertes Retargeting spricht genau diesen Nutzer zu einem späteren Zeitpunkt noch einmal an: Ein personalisierter Banner erinnert den Nutzer an seinen Besuch, und bringt ihn mit einem Klick zurück zum Ursprungsshop.
Je nach Zielsetzung des Werbetreibenden können unterschiedliche Zielgruppen erreicht werden. Überraschenderweise sind 50% der Verkäufe Produkte, die sich der User vorher nicht angesehen hat.

Auch wenn comScore Studien öfter die Bedeutung des Klicks herabsetzen, zeigt die Erfahrung von Alexander, dass die Wahrscheinlichkeit eines Kaufes nach dem Klick auf einem personalisierten Banner 3x höher ist, als über andere Kanäle.
Zur „Performance in der Customer Journey“ zieht er eine weitere Studie heran. Die IAB UK Studie zum Thema „Retail“ hat sich mit der Kombination von Display und Search beschäftigt. Die wichtigsten Fakten:

  • ca. 40% aller Customer-Journey-Ketten haben nur einen Kontakt bis zum Kauf.
  • 57% der 1-Klick-Conversions sind Direct-Type-In’s.
  • Durchschnittlich verstreichen vom Erstkontakt bis zur Conversion 7 Tage.

Um den Kaufprozess wieder anzustoßen, kann man sich Newsletter und anderen Retargeting-Maßnahmen bedienen. Gerade auch Kunden, die vor etwas längerer Zeit in einem Online Shop etwas eingekauft haben, sind leicht zu identifizieren und zu erreichen.

Black Hat SEO – what should not be done but still works well

Das Black Hat SEO hat wenig überraschend viele Konferenzteilnehmer angezogen. An Stelle von Magnus Bråth ist sehr kurzfristig Aaron Axelsson eingesprungen. Der sympathische Schwede hat uns leider nichts Neues verraten können, aber seine persönlichen Erfahrungswerte geteilt:

  • Tu nicht, was alle tun (z.B. Infografiken) – Abstrafung ist nur eine Frage der Zeit.
  • Tu nicht (alles), was Google von dir will.
  • Verwische deine Spuren, sei unsichtbar (Proxy Server für jeden GWT-Account).
  • Black-Hat-Seo-Maßnahmen niemals bei großen Projekten einsetzen.

Leider hat man nicht viel aus dieser Speaker-Runde mitgenommen, aber Aaron hat mit seiner leichten Nervosität und charmanten Art viel Wett gemacht :).

TLD: Neue TLDs und was tut sich noch im Domaining?

Gefühlte fünf Personen haben sich in den Webtrekk-Track eingefunden, um Marius Würzner und Christoph Eik zuzuhören. Dabei war die Präsentation ein echtes kleines Juwel!
Marius hat den Einstieg gemacht, indem er aufgezeigt hat, wie augenscheinlich etablierte Projekte in der Vergangenheit oft an der Frage der kommerziellen Profitabilität gescheitert sind (Hallo Facebook?).
Viel solider ist der Internet Domain Index (IDNX) , der führende Preis-Index für den Domain-Markt. Die  Bewertung der Domain-Verkäufe in den letzten Jahren folgt der allgemeinen wirtschaftlichen Entwicklung (NASDAQ), und stellt somit ein vertrauenswürdiges Signal dar.
Die eigene Domain ist zudem ein freies, offenes System. Keine willkürlichen AGBs (Hallo Facebook?) können das Selbstbestimmungsrecht beschränken. Ein weiteres Plus: Vertrauenswürdige Domainnamen können die Klickwahrscheinlichkeit in den SERPs um bis zu 25% erhöhen.

Das Fazit:

  • Domains oder ein Domainportfolio ist weiterhin der zentrale Punkt jeglicher Internetpräsenz.
  • Die Akquisition in eine Domain ist eine Investition in eine Anlage und keine temporäre Ausgabe.
  • Social-Media-Angebote begleiten eine Domainstrategie.
  • Domains garantieren ein unbeschränktes Selbstbestimmungsrecht der eigenen Darstellung.

Christoph Grüneberg von Domainvermarkter stellt an dieser Stelle die neuen Top Level Domains (TLD) vor, dessen Einführung schon im Juli 2000 beschlossen worden ist.
Insgesamt 1409 Bewerbungen auf TLDs wie .music .app .shop sind bei der ICANN eingegangen. Da allein die Bewerbung auf eine TLD, nicht der Erwerb, mindestens (!) 185.000 US-Dollar kostet, braucht sich der ICANN für die nächsten Jahre wohl keine finanziellen Sorgen mehr machen.
Die Top-Bewerber um bestimmte TLDs sind natürlich Google und Amazon. Da sich die Bewerbungen überschneiden (.app .inc .home), kann sich der ICANN noch mehr freuen: Die TLD wird dann meistbietend versteigert.
Mal abgesehen davon, dass sich die Bewerber in Zukunft nur so mit Geldsäcken beschmeißen werden, stellt sich die Frage: Was wollen die mit den TLDs?
Die Antwort: behalten! Google und Amazon wollen die TLDs nicht, um sie Registrare gegen Geld anzubieten, sie wollen sie einfach nur behalten. Eine rein interne Verwendung von zum Beispiel amazon.book würde aber Mitbewerber wie thalia.book ausschließen.
Aber Christoph relativiert die Bedeutung von TLDs und sagt:

  • .de ist ein Brand, daran haben sich die Leute gewöhnt.
  • ein neues Geschäft unter einer neuen Endung aufzubauen wäre sehr schwierig.

E-Mail-Marketing: Ranking-Faktoren 2012

Zu dem Vortrag von Dirk Ploss bin ich in erster Linie gegangen, weil ich so gut wie keine Ahnung von dem Thema hatte. Tatsächlich habe ich beim E-Mail-Marketing auch eher an leicht nervige, digitale Postwurfsendungen gedacht.
omcap recap email marketing

Dirk hat mich ganz schnell eines Besseren belehrt! Und das lag nicht nur an der mit Abstand visuell schönsten Präsentation (unbedingt bei Slideshare anschauen!).
Genau wie SEO stirbt E-Mail-Marketing alle paar Jahre mal. Mal an einer Überdosis Facebook, an der SMS oder Napster. Die E-Mail ist aber einfach nicht tot zu kriegen, im Gegenteil: der Markt wächst weiterhin.

Aber wie spielt man das E-Mail-Spiel?

  • Kontaktlisten aufbauen.
  • Gar nicht erst mit gekauften Listen und Co-Sponsoring anfangen.
  • Single statt Double-Opt-In bei einer Anmeldung wählen: führt zu 40% mehr Anmeldungen.
  • OnSite-Gewinnspiele veranstalten und E-Mails abgreifen.
  • Betreffzeilen optimieren. Wird der Newsletter nicht geöffnet, denselben Inhalt mit einer anderen Betreffzeile noch einmal verschicken.
  • Alles klickbar machen!
  • An Smartphones denken (Responsive Design).
  • Bewegtbilder verwenden (Cinemagraph).
  • Durch Whitelisting den Spam Ordner vermeiden.
  • A/B – Testing durchführen.
  • KPIs gewichten: Öffnungsrate, Conversion Rate, Abmeldequote.
  • Mit Empfänger-individuellen-Versandzeitpunkten experimentieren.
  • Formate Individualisieren! Namen des Empfängers grafisch einbinden, auch in Buttons.
  • Neuromarketing: unterschiedliche Wahrnehmungsweisen von Menschen bedienen.

Die erfolgreichsten Betreffzeilen von Dirk waren übrigens:

  • Wer braucht schon Ballack? (Der fand das gar nicht lustig).
  • Das Supi-Dupi-Schnappi-Angebot. (Gaga geht immer).
  • Unsere Geschäftsführung gratuliert. (Irgendwas mit Geschäftsführung läuft auch).

SEO: Rankingfaktoren 2013

Marcus Tober und Karl Kratz haben erwartungsgemäß vor einem sehr großen Publikum gesprochen. Im ersten Teil ist Marcus Tober, geschäftsführender CTO der Searchmetrics GmbH, der Frage nachgegangen, wie stark klassische Ranking-Faktoren weiterhin gewichtet sein werden. Dabei hat er sich auf das „Whitepaper SEO Ranking Faktoren für Deutschland 2012“ bezogen, der großen Studie von Searchmetrics. Die sollte man sich noch einmal genauer anschauen, mit einem Tweet ist man dabei.
Obwohl Matt Cutts (oder gerade deshalb?) die Bedeutung von Social Signals konstant runterspielt, ist Marcus überzeugt, dass gerade die +1-Auszeichnungen direkten Einfluss auf das Ranking hat. Neben Social Signals sollte man weiterhin die CTR erhöhen (Snippet-Optimierung, Rich Snippets), am Traffic pro URL arbeiten und auf den Faktor Verweildauer als Qualitätssignal achten (ich sag nur Stickiness).
Zuletzt weist er noch auf die geplante Suchmaschine von Facebook hin. Sollte Facebook diese Pläne verwirklichen, obwohl zur  zeit noch nicht einmal eine interne Suche funktioniert, dann wären Ihnen laut der Greenlight Studie ein sofortiger Marktanteil von 22% sicher.

Und dann kam Karl.

Karl hat sich wahrscheinlich gedacht, dass man so kurz vor Ende des OMCaps besonders aufnahmefähig ist und hat uns erst einmal die Terminigewichtung in dokumentbasierten Information Retrieval Systemen um die Ohren gehauen.
Um die Gewichtung eines Terms i in einem Dokument j zu bestimmen, muss die Häufigkeit des Term i im Dokument j durch die Anzahl aller Terme im Dokument geteilt werden. Das nur noch mit der Summe aller Dokumente und Anzahl aller Dokumente in denen der Term i vorkommen multiplizieren – fertig!

Ganz einfach, oder?

Um was geht es hier eigentlich? Zunächst um die mathematische Unsinnigkeit der Keyword Density, die die relative Häufigkeit eines Keywords in einem Textdokument beschreibt. Wäre allein die relative Häufigkeit eines Keywords entscheidend, dürften wir uns wohl über Texte mit einer Keyword Density von 80% freuen. Ab einem bestimmten Wert nimmt der Nutzen aber ab (Erstes Gossensches Gesetz), deshalb kursieren auch Werte wie 2-7% Keyword Density als optimale, relative Häufigkeit. Wenn da nicht noch die Textstatistik wäre, derer sich Informationsbeschaffungssysteme wie der Googlebot bedienen.
Die statistische Untersuchung einzelner Texte zieht alle quantifizierbare Eigenschaften von Texten heran. Die relative Häufigkeit eines Wortes innerhalb eines Textdokuments ist da nur ein kleines Licht.
Es geht unter anderem um die „Häufigkeitsverteilungen, stochastischen Abhängigkeiten, Korrelationen zwischen verschiedenen textinternen und textexternen Variablen und möglicherweise universellen Gesetzmäßigkeiten“( http://www.linse.uni-due.de/linse/publikationen/statmeth.html).
Und wenn ich den Karl richtig verstanden habe, dann beschäftigt er sich mit einer alles erklärenden Welt-Formel, mit der man Dokumente erschaffen kann, die sich in den obersten SERP-Nischen einkuscheln, als gäbe es kein Morgen.
Ich hoffe, ich habe seinen Ansatz in den Grundzügen wiedergeben können. Der Vortrag hat mich auf ein Thema gestoßen, mit dem ich mich noch kaum beschäftigt habe. Aber das wird sich ab sofort ändern!
Für Interessierte ein paar Fortbildungs-Links:

SEO Mythos Keyword Density (Karl Kratz)

Der SEO-Mathe Kanal (Armin Sanjari)

Textstatistik

Document Indexing Tutorial

Fazit:

Der OMCap war allein (!) von den Vorträgen her schon ein echter Gewinn. Dann natürlich noch die großartige Gelegenheit, viele interessante Menschen kennen zu lernen, zusammen ein paar Bierchen (Whisky, Wodka, Wein) zu trinken und einfach Spaß zu haben. Mir tut es nur leid, dass ich mich zwischen vielen Vorträgen entscheiden musste und doch eigentlich gern noch mehr besucht hätte. Kann man das Ganze beim nächsten Mal nicht auf 4 Tage strecken?! 🙂

Meine letzte Station war übrigens dieser Würstchenstand, der neben guten Pommes auch House-Musik auf hohem Niveau zu bieten hatte: Berlin, du rockst auch ganz schön ab!

wurstbude in berlin what a wurst

Bilder von der OMCap 2012:

bildwand omcap 2012

Lust auf einen Gastartikel?
Möchtest du einen Gastartikel auf SEO-Trainee.de veröffentlichen? Dann schau dir unsere Richtlinien für Gastbeiträge an und melde dich ganz einfach bei uns! Wir freuen uns von dir zu hören

Autor:In

15 Antworten

  1. Pingback: OMCap 2013 Recap - SEO Trainee | Ab hier geht´s nach oben
  2. Hallo Yvonne,

    ich denke das ist erst der Anfang des „mathematischen“ wandelst in der SEO Welt.

    Der WDF bzw der IDF wurde ja schon vor vielen Jahren als Begriff eingeführt (Donna Harman).
    Interessant wird es wenn man zu dem Keyword in Abhängigkeit des Wettbewerbs und der Häufikgeit, noch weitere Faktoren in einem Vektormodell kombiniert (Position der Keywords, Textlänge, …..)

    Danke für den Artikel.
    Liebe Grüße
    Armin

  3. Hallo Yvonne,

    was Du im Vortrag gesehen hast, waren die Basics. Jeder Suchmaschinenalgorithmus für _dieses eine_ Signal ist deutlich komplexer, der von Google sicher auch. 😉

    Sooooo viel Rechnerei ist das gar nicht. Unterm Strich ist es kostengünstiger, wichtige Kennzahlen aus dem bereitgestellten Dokument zu berechnen, als aufwendig über Verlinkungen.

    Allerdings gehst Du mit Deiner Annahme meiner Erfahrung nach richtig davon aus, dass der Prozess-Schritt des Spam-Filtering _vor_ tiefgehenden Analysen stattfindet. Für die erste Identifikation von Webspam genügen ja bereits wenige, kostengünstige Plausibilätsprüfungen.

    Hoffe, das hilft und wünsche Dir wilde Zeiten,

    Karl

  4. Also der Vortrag von Karl war ja scheinbar wirklich schwere Kost. Was ich mich aber frage wie Google soviele Umrechnerei stemmen können soll. Da müssten ja dutzende solcher komplexen Berechnungen zu jedem Dokument und Keyword im Internet vorgenommen werden. Oder wird das nur bei bestimmten Keywords und Webseiten gemacht, die eine bestimmte Qualifikation erfüllen? Anders kann mich mir das kaum vorstellen, dass Google so vorgehen könnte.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert