Tut mir wirklich leid…

Ich habe diese Woche den Stadtplan etwas optimiert. Es ging vor allem um die SEO-Optimierung und die bessere Verknüpfbarkeit mit Sozialen Medien.

Letzteres spiegelt sich in einer besseren Angabe von OpenGraph und Twitter-Daten wieder. Auszeichnungen im Microformat nach schema.org sind bereits seit längerem implementiert (was sicherlich die gute Google-Platzierung erklärt). Außerdem werden ab sofort die Meta-Beschreibungs- und -Schlüsselwort-Felder dynamisch angepasst. Und falls eine Anfrage nur einen Suchtreffer bringt, wird versucht das zugehörige Bild zu laden.

Apropos Bilder. Ich werte nun auch das wikidata-Tag aus. Sind Wappen, Logos, Bilder oder Flaggen hinterlegt, so wird dies eingebunden. Ansonsten versuche ich ein Bild der zugehörigen Wikipedia-Seite anzuzeigen oder das Image-Tag auszuwerten. Beim Image-Tag beschränke ich mich aus Sicherheitsgründen auf Bilder aus der deutschen Wikipedia oder WikiCommons. Das birgt zwar immer noch ein Restrisiko, jedoch halte ich dies (derzeit) für vertretbar.

Und nun der Grund, warum ich mich entschuldige: Google hat viele Inhalte doppelt und dreifach (ach was sag ich: zehnfach!) indiziert. Die Gründe sind unterschiedlichster Natur. Zum einen wurden die mobilen Seiten (sowie Seiten mit dem Prefix „www.“) mitgezählt (zukünftig soll ein canonical Link Abhilfe schaffen). Desweiteren wurden auch Piwik-Kampagnen-Links im Index mit aufgenommen. Ich hatte die entsprechende Piwik-Variable zwar in den Webmaster-Tools als zu ignorieren gekennzeichnet, verzeichnete aber dennoch Nutzer in den Kampagnen, die von Google zu mir kamen. Die Links wurden nun zusätzlich mit einem nofollow gekennzeichnet. Außerdem gab es einen klitzekleinen Fehler in der Sitemap-Erstellung, weshalb viele Links zu Phantominhalten erstellt wurden.

Es kam darüber hinaus zu einer Vermischung der Links, die mit GET-Variablen ihr Ziel vorgaben mit Links, die ihren Inhalt aus AJAX-Hashwerten in der URL bezogen. Da ich letzteres bevorzuge habe ich für _escaped_fragmet_-Abfragen eine HTTP-301-Weiterleitung auf die reinen AJAX-Daten eingerichtet (sprich, alle anderen GET-Variablen, außer [cci lang=’php‘]$_GET[‚_escaped_fragmet_‘][/cci] werden eliminiert) und hoffe, dass Google sie entsprechend interpretiert. Bing soll das AJAX-Verfahren auch bereits unterstützen. An deren Crawler-Ergebnis hängt auch Yahoo. Wie es mit Yandex und Baidoo (ja, auch von diesen Suchmaschinen bekomme ich Besucher) aussieht, kann ich nicht sagen.

Das Problem sind die tausenden URLs, die nun mit den falschen Daten verknüpft im Index der Suchriesen liegen. Sucht ein Nutzer also nach etwas bestimmten und klickt auf einen Link zum Stadtplan, kann es nach den Umbaumaßnahmen durchaus sein, dass er was ganz anderes angezeigt bekommt. Es wird wohl ein paar Monate dauern, bis die Indizes sich erneuert haben.

Der mittelfristige Vorteil meiner Änderungen:

  1. Ein Nutzer kann durch das bloße kopieren der URL (mit AJAX-Hash-Geraffel) die letzten Suchergebnisse mit anderen Menschen teilen
  2. Twitter, Facebook, Pinterest und Google können diesen URLs auch Objekt-, bzw. Suchergebnisspezifische Daten entnehmen und bereits in der Linkvorschau anzeigen
  3. Links in den Suchindizes zu nicht vorhandenen Inhalten sollten deutlich weniger werden
  4. die doppelten Einträge in den Such-Indizes werden weniger, was den SEO-Wert des Stadtplans steigert und es werden bei Suchanfragen weniger Links zu dem selben Inhalt auf dem Stadtplan angezeigt (was vllt. einen besseren Eindruck beim potentiellen Besucher erzeugt)

Ob es wirkt, werde ich in einigen Monaten feststellen. Hoffentlich verwirre ich bis dahin nicht all zu viele Nutzer 😀

label, , , , , ,

Kommentar verfassen