SEO Campixx 2014 AKM

Vom 15. bis zum 16. März öffnete am bekannten Veranstaltungsort „Hotel Müggelsee Berlin“ die 6. SEO Campixx 2014 ihre Pforten, dieses Jahr unter dem Motto „The Future“. An den zwei Tagen trafen sich bekannte und neue SEOs auf mehr als 100 Workshops, lauschten den Veranstaltungen und debattierten angeregt neueste Trends und Erkenntnisse. Auch die AKM3 konnte wieder ein paar Tickets ergattern und mischte nicht nur als Besucher, sondern auch mit einem eigenen Vortrag ordentlich bei der SEO Campixx mit.

Onpage Analysen mit Microsoft Excel

Den Auftakt an Tag 1 machte unter anderem Stephan F. Walcher zum Thema Onpage-Analysen mit Microsoft Excel. An Tools unterschied Stephan Crawler und Online-Tools. Als Crawler nannte er Xenu und den ScreamingFrog, die Liste der Online-Tools war hingegen sehr ausführlich und prominent besetzt, z.B. mit Google Tools, Bing Webmastertools, Sistrix, Strucr und ahrefs.

Der Crawl sollte immer mit einem Probecrawl beginnen. Dieser lässt erkennen, wie xenu oder Screaming Frog eingestellt werden sollten, um die gewünschten Informationen zu bekommen und zu verhindern, dass die Crawler sich in Session ID oder Custom Codes festrennen. Stephans Screaming-Frog-Recon liegt bei beachtlichen 1,5 Millionen gecrawlten Seiten. Nach dem vollständigen Scan folgt das Verarbeiten der Daten. Als gemeinsamen Nenner benutzt Stephan immer die URL, denn so lassen sich die Daten nach einem im Vorfeld definierten Fokus gut sortieren. Für die Veranschaulichung und Auswertung der Daten benutzt Stephan Pivot-Tabellen und Diagramme.

Neben dem Vorstellen des Prozesses anhand von Beispielen gab er dem Auditorium auch einige wichtige Excel-Formeln mit auf den Weg. Ihr könnt diese hier nachlesen.

SEO Campixx Perfekter SEO-Report

Das liest doch eh keiner – SEO Texte im E-Commerce

In der zweiten Session am Samstag bewiesen Simon Pokorny und Sandro Wittkopp von home24.de, dass Texte im E-Commerce im Gegensatz zu den üblichen Vorurteilen („Das liest doch eh keiner“) von Nutzern sehr wohl gelesen werden und sogar zu einer Steigerung der Conversion Rate von mindestens 20% führen können. Für diese Aussage stützten sich die Referenten auf einen Test, der auf home24.de über einen Zeitraum von 3 Monaten durchgeführt wurde.

Ergebnis des Tests war, dass informative Texte, die auf die Bedürfnisse und Fragen der Kunden eingehen und das Produkt erklären sowie ggf. sogar Emotionen hervorrufen den Kunden besser abholen und eher zum Kauf bewegen können, als fehlende oder inhaltslose Texte eingebunden werden. Auch auf Produktseiten lohnt es sich, dem Kunden möglichst detaillierte Informationen zu geben, die weit über die Infos vom Hersteller hinausgehen. Ziel der Texte sollte es demnach sein, den Kunden so gut wie möglich zu informieren und somit einen Ausgleich zu dem fehlenden Kaufberater aus dem Offline-Handel herzustellen.

Auch die Einbindung der Texte auf der Landingpage hat einen Einfluss auf die Conversion Rate. In dem durchgeführten Test zeigte sich z.B., dass ein kurzer einleitender Text oberhalb der Produktlistings auf Kategorieseiten sich im Gegensatz zur Einbindung des kompletten Textes unterhalb der Produkte ebenfalls positiv auswirken kann.

9,5 Millionen Links sind einer zu viel – der finanzen.de Penalty aus der Inhouse-Perspektive

In der zweiten Session nach der Mittagspause beschrieb Jörg Erdmann, ehemaliger Head of SEO und nun CMO von finanzen.de, die Abstrafung des Portals durch manuelle und algorithmische Penalties, um anschließend den Prozess zur Neuausrichtung der Online-Marketing-Aktivitäten darzustellen. Die Offpage-Optimierung bei finanzen.de bestand vor allem aus quantitativen Zielen. Folglich führte die Masse an Links Ende 2011 zu einem blauen Brief und einer manuellen Abstrafung. Im Januar 2012 folgte dann Pinguin 1.0. Offensichtlich lag auf der kompletten Domain von finanzen.de eine Abstrafung: Selbst neu publizierte Inhalte oder das Umziehen der bestehenden Inhalte auf Subdomains brachten keine Erfolge.

Im SEO-Team von finanzen.de wurde angenommen, es würde ausreichen, SEO-Links zu entfernen. So versuchte sich das Team über fünf reconsideration requests an die „richtige“ Menge an Links heranzutasten. Der erste Recon enthielt noch 80 Links, der fünfte bereits über 2.000. Ein großer Vorteil war dabei, dass im hauseigenen CRM alle Links inklusive Ansprechpartner, Konditionen und Gesprächsverlauf archiviert waren. Die Misserfolge der Anträge führten dazu, dass man sich alle Backlinks inklusive Affiliate-Verlinkungen ansah. Diese verwiesen ebenfalls per Do-follow aus Texten oder Bannern heraus auf finanzen.de. Der siebte reconsideration request brachte dann schließlich den Erfolg. Jörg fand mahnende Worte und appellierte ans Auditorium, sich immer das komplette Backlinkprofil anzuschauen und rigoros zu entscheiden.

Die Phase des Linkabbaus dauerte ein ganzes Jahr. Parallel wurden die Mitarbeiter mit Eis motiviert und das Marketing neu ausgerichtet. Im SEO entschied man sich für einen Longtail-Ansatz, der gut funktioniert. Zusätzlich wurden andere Projekte in den SERPs platziert. Außerdem wurden E-Mail-Marketing und SEA professionalisiert. Nach der nun erfolgreichen Aufhebung der Penalties beschrieb Jörg Erdmann den neuen, PR-getriebenen Ansatz. Es werden vor allem sehr hochwertige Inhalte geschaffen und Kooperationen vereinbart. Die Links, wie z.B. von Herrn Lauterbach oder AVD, kamen dann von allein.

Rich Snippets // Linking Reconsideration Requests

Ein wohl von vielen erwarteter Vortrag war der von den Google Mitarbeitern Johannes Mehlem und Uli Lutz. Thematisch war der Vortrag in die Teile „Rich Snippets“ und „Linking Reconsideration Requests“ gegliedert, wobei besonders der letzte der beiden Parts für besonders hohe Erwartungen sorgte. Eingeleitet wurde die Session mit der Idee, die hinter den Rich Snippets steckt, den Suchenden schon möglichst in den Suchergebnissen gut zu informieren. Dabei bieten die Rich Snippets jedoch keinen direkten Rankingvorteil, erhöhen allerdings die Klickraten. Interessant war die Bemerkung, dass abgestrafte Seiten ihre Rich Snippets verlieren können, da sie von Google in dem Moment weniger Vertrauen genießen.

In der zweiten Hälfte der Session wurde über Linking Reconsideration Requests gesprochen, welchen Workflow man einhalten soll und wie man ihn strukturiert stellt.

Einige wissenswerte Take-Aways:

  • Bevor man das Disavow-Tool nutzt, sollte man zuerst die Webmaster um die Entfernung der Links bitten und erst dann das Tool zur Hilfe nehmen.
  • Einen Link zu entwerten, hat keinen negativen Impact auf die Seite, auf der der entwertete Link stand. Dazu kam allerdings direkt der Hinweis von Google, dass Häufungen jedoch sehr wohl registriert werden. Werden Links von einer Seite also regelmäßig von verschiedenen Webmastern entwertet, so kann es scheinbar doch einen Einfluss haben.
  • Beim „Aufräumen des Backlinkprofils“ reicht es die in den Webmaster-Tools aufgelisteten Links zu betrachten.
  • Insgesamt war dieser Vortrag einer der interessantesten und sorgte auch nach dem Ende dafür, dass Mitarbeiter Johannes Mehlem und Uli Lutz regelrecht belagert wurden.

SEO Campixx Internationale Websites

Google Quality Rater Guidelines

In dieser Session von Holger Etzel und Martin Gaulke ging es um die Guidelines der Google Quality Rater und das, was man aus den Guidelines ableiten kann. Der Gedanke dahinter ist simple und dennoch sehr interessant. Änderungen im Google Algorithmus sind bei genauem Lesen der Guidelines manchmal schon im Vorfeld angedeutet, wodurch sich Strategien für das eigene Projekt ableiten lassen. Ebenfalls lassen sich anhand der Guidelines eventuelle und unerklärbare Abstrafungen von Websites herleiten.

Grundsätzlich war das Fazit dieser Session aber konform mit dem, was aktuell überall zu hören ist:
Google ist ein Dienstleister und möchte dem Suchenden das optimale Suchergebnis bieten. Somit spielt der Content eine große Rolle und die Erwartung des Suchenden muss auf der Seite erfüllt werden, um gut zu ranken. Alles, was den Suchenden in die Irre führt oder ihn dazu zwingt, eine Handlung auszuführen, wird abgestraft.

Manuelle Maßnahmen eingehende Links – Der Weg aus dem Penalty

In der Session „Manuelle Maßnahmen eingehende Links – Der Weg aus dem Penalty“ zeigte Timo Schande Wege auf, wie man Linklisten in Excel und unter Verwendung weiterer SEO-Tools Links um verschiedene Metriken anreichern kann. Diese kann man dann heranziehen, um zu beurteilen, ob ein Link gut oder schlecht ist. Einigkeit herrschte im Saal darüber, dass es letztlich notwendig ist, sich einen Großteil der Links im Detail anzuschauen. Dennoch bekommt man bereits durch die verschiedenen Metriken gute Hinweise, die die Beurteilung und den Prozess der Bewertung beschleunigen und erleichtern. Als Metriken wurden unter anderem folgende genannt:

  • Verhältnis Anzahl der ausgehenden Links einer Domain zu den eingehenden Links
  • Pagerank einer Domain
  • Anzahl indexierter Seiten
  • Viele ausgehende Links mit hartem Ankertext
  • IP-Adressen
  • Footprints

Um zum Beispiel die Anzahl ausgehender Links zu ermitteln, kann man sich mit dem „linkfromdomain:“ Operator die Anzahl der BING bekannten ausgehenden Links einer Domain anzeigen lassen. Um nicht jede Abfrage einzeln und manuell durchführen zu müssen, kann man die BING-URL mit der „linkfromdomain:“-Abfrage für jede einzelne Domain nachbauen. Hat man die BING-URL ermittelt, kann man mit SEO-Tools für Excel einfach die Anzahl der ausgehenden Links scrappen.

Eine andere Metrik ist es, die Anzahl der indexierten Seiten der verlinkenden Domain zu überprüfen. Auch dies kann mit SEO-Tools für Excel umgesetzt werden (bei SEO-Tools für Excel sollte man allerdings immer ein wenig Zeit mitbringen, je nachdem wie groß die Datenmenge ist). Des Weiteren kann man sich die IP-Adressen, den Pagerank und einige Footprints importieren. Aus den so gewonnenen Metriken können dann Erkenntnisse gezogen werden. Hat man zum Beispiel eine Vielzahl an Domains, die von derselben IP-Adresse stammen, nicht indexiert sind und alle einen gleichen Footprint aufweisen, kann man sich die Zeit sparen, alle Domains im Detail anzuschauen.

Bilder/ Video SEO Bildersuche ohne Bilder

Die Session „Bilder/ Video SEO Bildersuche ohne Bilder“ musste ohne Martin Mißfeld stattfinden, da er aufgrund von Krankheit nicht anwesend sein konnte. Ingo Henze hielt die Session daraufhin alleine. Anhand der Bilder-Agentur 123rf.com demonstrierte er anschaulich, warum es keine gute Idee ist, Bilder zu verändern, speziell wenn diese bereits gute Rankings erzielen. Einer der wichtigsten Tipps war es, nie Bilder zu verändern, die Rankings erzielen, auch wenn eine Google Pagespeed Analyse etwas anderes ergeben sollte. Der Grund besteht darin, dass sich ein geändertes Bild Rankings erst wieder zurückerkämpfen muss. Die Analyse der Bilder der Bildagentur ergab, dass vermutlich die Veränderung des Wasserzeichens dazu führte, dass die Bilder ihre Rankings verloren.

SEO Campixx Bilder Domain Index

Außerdem zeigte Ingo anhand verschiedener Tests, was Google indexiert und was nicht. Eine Erkenntnis war, dass sogar Bilder indexiert werden, die nur als Text-URL (ohne Hyperlink) im Text eingefügt wurden. Außerdem erklärte Ingo, dass man mit dem NOIMAGEINDEX-Tag Bilder von der Indexierung ausschließen oder gezielt bestimmte Seiten in der Bildersuche anzeigen lassen kann. Hat man beispielsweise drei URLs A, B, C, auf denen jeweils das gleiche Bild integriert ist, will aber nur mit URL A in der Bildersuche ranken, sollte man die URLs B und C mittels

< meta name="robots" content="noimageindex" / >

von der Indexierung ausschließen. Sehr amüsant wurde es, als im Saal das Thema Copyright zur Sprache kam, und Timo mit dem Satz „Das hier ist das Brötchen, das damals Schlagzeilen machte“ ein Beispiel eines Copyright Falles veranschaulichte.

Mobile SEO – Best Cases

Haupterkenntnis aus dem 45-minütigen Workshop von Johann Moor: Nach wie vor entsprechen viele für Smartphones erstellte Webseiten nicht den Google-Guidelines. Außerdem kommt es bei der Erstellung von mobilen Webseiten häufig zu Fehlkonfigurationen, die man dank Google Webmaster-Tool jedoch erkennen und folglich behandeln kann. Die häufigsten Fehlermeldungen sind:

  • 404 Fehler
  • Soft 404
  • Faulty-Redirects

Ein besonders interessanter Punkt ist der „Faulty Redirect“. Von diesem spricht man, wenn der Benutzer eines Smartphones von der Suchergebnisseite nicht auf die gewünschte Unterseite weitergeleitet wird, sondern stattdessen auf der Startseite landet. Dies entspricht weder den von Google vorgegebenen Standards, noch ist es im Sinne des Benutzers.

Weitere Punkte, die in der Session behandelt wurden, und die bei der Erstellung mobiler Webseiten beachtet werden sollten:

  • Eine exakte User-Agent-Erkennung
  • Vermeidung von Duplicate Content
  • Klare Struktur und wenige Elemente in einem übersichtlichen Design

Wir finden:

Auch 2014 war die SEO Campixx wieder sehr gut besucht und punktete mit abwechslungsreichen und thematisch sehr vielfältigen Beiträgen. Das Treffen von alten Bekannten und das Knüpfen neuer Kontakte war auch in diesem Jahr wieder interessant und spaßig.
Danke dafür, SEO Campixx 2014, und bis zum nächsten Jahr!

Weitere Recaps: SEO Campixx 2014

Daniel Weihmann: weihmann.de
Patrick Müller: takevalue.de
Johannes Reimann: seosofa.com
sebastian blum gmbh: sblum.de
Simon Mader: seo-wilderer.de
Felix Beilharz: felixbeilharz.de
Maximilian Hitzler: guymax.de
Carina Sadowski: mindshape.de
Sven Deutschländer: seo-profi-berlin.de
Jens Altmann: gefruckelt.de
Christian Süllhöfer: zweidoteins.de
Carsten Hinrichs: edelnerd.de
Jens Mönning: han-seo.de/
Nicolas Sacotte: contentking.de
Ingo Henze: schnurpsel.de
Fabian Rossbacher: seo-day.de
Heiko Höhn: heiko-hoehn.com
Florian Elbers: macseoblog.de
Daniela Henschke und Kerstin Reichelt: popularity-reference.de
Phil Wennker: seo-heads.de
Chris Gotzmann: fastbacklink.de
Simon Pokorny: simon-pokorny.com
Sebastian Eggersberger: ednetz.de
Alexander Russ: blog.addwert.de
Sebastian Burfeind: activetraffic.de
Danny Behne: augmention.de

Die SEO Campixx früher:

2013
2012
2010
2009


«

»

Dieser Artikel wurde 6816 Mal gelesen.

Kommentare (5)

  1. Pingback: SEO Campixx 2014 Recap - PenaltyCheck
  2. Pingback: Google Quality Rater Guidelines - Vortrag auf der SEO Campixx 2014
  3. Pingback: SEO campixx 2014: Der Clicks Recap | Clicks Blog
  4. Pingback: SEO Campixx 2014 Recap | seo-augsburg.de
  5. Pingback: Alle SEO Campixx Recaps 2014 auf einen Blick | Internetmarketingagentur.de

Hinterlasse Deinen Kommentar

Performics ist bekannt aus:
Werde Performics Fan auf Facebook & Twitter