Technically speaking: SEO und SEM Tipps in Geek Speak

23 Mär 2011 / von Webrepublic AG / Search / Comments

Wow, das war intensiv

Teilen

Print

None

An der bisher technik-lastigsten Session haben uns Adam Audette, Jaimie Sirovich und Brett Tabke eine Stunde lang in das technische Herz des SEO geführt und Schlag auf Schlag Tipps geliefert, um die Crawlability der Seiten zu Verbessern, Robots und Menschen bessere Inhalte zu liefern und anhand von logfile-Analysen mehr über das Indexing-Verhalten von Google zu verstehen: Von den «5 Technical Tips for SEO Geeks» von Adam über den sehr theoretischen aber deshalb nicht minder spannenden Exkurs Sirovichs zu Facets & SEO bis zur forensischen und sehr erhellenden Analyse nach einem Traffic-Drop auf webmasterworld.com von Tabke.

Kurz zusammengefasst: Die eigene Site immer mal wieder selber zu crawlen (zB auch als "GoogleBot") zeigt sehr schnell auf, wo es Verbesserungspotential gibt und wo Seiten falsch indexiert werden. Zudem sollten Seiten so aufbereitet sein, dass sie für Bots schnell und übersichtlich gecrawlt werden können.

Logfile-Analyse Tools
Ein wichtiger Punkt von Adam Audette war, dass die Google Webmaster Tools zwar viele Informationen liefern, die aber nicht unbedingt sehr umsetzbar sind. Andere Tools können mehr und von den vielen Tools, die Audette vorgestellt hat, sind bei mir folgende bei den Bookmarks gelandet: sawmill, splunk, logfilt (command-line tool von audette, super-geeky)

Technical SEO factors that matter most
Bevor man andere Faktoren zu optimieren versucht, sollte man folgende Aspekte beachten: URL Struktur, Crawl Effizienz und Accessibility, Geschwindigkeit, Navigations und Crawl-Pfade. Denn zentral ist, welche Informationen man den Spidern gibt. Danach Inhaltsstruktur und Code-Reihenfolge, Inhalt-Delivery, Meta Data und URL-Ausschlüsse (via robots.txt und meta robots) beachten. Das heisst, die Priorität ist klar: crawl accessibiliy is first!

Weitere Tools die Audette empfiehlt: Xenu, Screaming Frog, 80legs.

Dann noch ein Tipp: Die top clicked URLs heraussuchen und mit eigenem Crawler aufsuchen. Viele werden als 302 oder 404 auftauchen - diese zu korrigieren ist ein easy win! Auch spannend ist eine Erkenntnis von Tabke, nachdem auf seiner Seite der Traffic ziemlich stark zurückgegangen ist: Auf der eigenen Seite Googles Site-Search zu verwenden wertet Google offenbar als Signal für Qualität (da man Google Traffic schickt) und entsprechend steigt das Ranking.

Das war eine sehr spannende Session. Während vor dem Panel noch immer eine Schlange von Teilnehmern steht und auf Antworten hofft, muss ich mich vom Geek Speak etwas erholen und mische mich wieder unter die Marketing-Folks :)