Abruf einer Seite bei Google Webmaster Tools

Abruf einer Seite in Google WebmasterTools

Durch die Verwendung dieses neuen Tools können Webmaster in Erfahrung bringen, ob Google beim Crawlen oder Indexieren ihrer Website aufgrund der Art und Weise, wie JavaScript oder z.B. CSS implementiert wurde, Schwierigkeiten hat. Dazu sucht der Google Roboter alle zugehörigen externen Dateien und versucht, sie ebenfalls abzurufen. Bei diesen Dateien handelt es sich typischerweise um Bilder, CSS- und JavaScript-Dateien sowie sonstige Inhalte, die indirekt über den CSS- oder JavaScript-Code eingebettet sind.

Als Resultat wird ein Vorschaubild angezeigt, welches so aussieht, wie Google die Seite und deren Struktur versteht. Google sagt, es seien Fortschritte dabei gemacht worden, wie der Google Roboter JavaScript versteht. Früher betrachtete Google nur die reinen Textinhalte und konnte nicht interpretieren, was ein Browser abrufen würde, der JavaScript ausführt.

Google bevorzugt gut sichtbare Inhalte

Google war nicht immer in der Lage, zu erkennen, welche Inhalte für den Besucher der Seite besonders gut wahrgenommen werden. Da aber Google dem, was der Besucher besonders stark wahrnimmt, mehr Gewichtung gibt, ist es wichtig, die Struktur gut zu erkennen (siehe auch Google Ranking Faktoren: Lesegeschwindigkeit). Andererseits ist es für die Betreiber einer Website wichtig, dass Google den richtigen Inhalt als prioritär erkennt.

Verbesserte Erkennung von JavaScript

Um Websites besser zu verstehen, hat Google im Laufe der Zeit die Art und Weise verbessert, wie JavaScript ausgeführt und erkannt wird. Heute erkennt Google Websites fast so wie ein normaler Browser mit aktiviertem JavaScript.

Um Websitebetreibern zu helfen, schlägt Google die folgende Lösung für potenzielle Probleme vor, die der Google Roboter bei JavaScript haben könnte.

  1. Wenn Ressourcen wie JavaScript oder CSS in separaten Dateien blockiert werden, z. B. in robots.txt, kann Google Seiten falsch verstehen. Dies kann theoretisch ein Vorteil sein, ist aber in der Regel eher ein Nachteil. Es ist darum besser, dem Google Roboter das Abrufen von JavaScript und CSS zu gestatten.
  2. Insbesondere bei mobilen Websites ist es wichtig, Google zu helfen, die Seite zu verstehen. Das Tool erlaubt es darum auch, die Ansicht vom “Desktop” oder “Mobile: Smartphone” zu wählen. Kann Google nicht erkennen, dass die mobile Website für Mobile Geräte optimiert ist, wäre das schade.
  3. Idealerweise sollte Ihre Website auch auf Fehler und unerwartet auftretende Ereignisse angemessen reagieren (Graceful Degradation). Wie sieht Ihre Website aus, wenn JavaScript nicht akzeptiert wird?
  4. In einigen Fällen ist JavaScript unter Umständen zu komplex, dies wird durch das neue Tool sichtbar.
  5. Manche JavaScript-Implementierungen entfernen Inhalte von der Seite, statt sie hinzuzufügen. Dies führt dazu, dass Google diese Inhalte nicht indexieren kann.

Ist Ihre Website betroffen?

Möchten Sie wissen, ob Ihre Website von einem der oben erwähnten Punkte betroffen ist? Haben Sie Fragen dazu, wie Sie in Webmaster Tools prüfen können, wie Google Ihre Website liest? Möchten Sie Probleme erkennen und beheben, die Google mit der Struktur Ihrer Website hat?

Kontaktieren Sie
Experte für online Performancemarketing der ersten Stunde
16.06.2014

Comments are closed.